Скопировано

Создатель ChatGPT хочет, чтоб нейросеть помнила всю жизнь своих пользователей

16.05.2025
Дата публикации
Глава OpenAI Сэм Альтман поделился амбициозным видением будущего ChatGPT: модель, которая будет помнить всю жизнь пользователя. Об этом он заявил на мероприятии, организованном венчурным фондом Sequoia.

По словам Альтмана, идеал — это «очень компактная модель с триллионом токенов контекста», в которую можно загрузить весь опыт человека. Речь идёт о письмах, книгах, разговорах, посещённых сайтах и других цифровых следах:

«Эта модель способна рассуждать в контексте всей вашей жизни и делать это эффективно. Каждый день она дополняется новыми событиями и данными из других источников».

То же самое, по его словам, можно будет реализовать для корпоративных данных.

Альтман отметил, что уже сейчас ChatGPT нечто большее, чем просто поисковик. Многие воспринимают его как персонального помощника, загружают файлы и используют сложные запросы для анализа информации:

«Люди в возрасте от 20 до 30 лет всё чаще принимают жизненные решения только после консультации с ChatGPT».

По наблюдениям Альтмана, молодое поколение использует ИИ как неформального «советника по жизни».

Возможности подобного подхода впечатляют. ИИ может автоматически планировать поездки, заказывать подарки, напоминать о сервисном обслуживании машины или предугадывать интерес к новым книгам. Всё это — без участия человека.

Однако такой уровень персонализации требует максимального доверия. Пользователь должен быть готов передать ИИ не только переписку и документы, но и конфиденциальные аспекты своей жизни. Это вызывает тревогу у экспертов.

История Big Tech полна случаев злоупотреблений. Google, например, недавно проиграл антимонопольное дело в США. ИИ-боты могут быть политически ангажированы и подвержены манипуляциям со стороны разработчиков и властей.

Так, чат-бот компании xAI в ответ на случайные запросы неожиданно обсуждал теории заговора, что вызвало подозрения в преднамеренной настройке модели. ChatGPT также недавно стал чрезмерно услужливым и начал одобрять опасные идеи, так что OpenAI пришлось срочно вмешаться.

Кроме того, даже самые продвинутые модели нередко «галлюцинируют» — придумывают несуществующие факты и события. Это может привести к искажению реальности и ошибочным решениям пользователей.

Идея ИИ, который помнит всю нашу жизнь, открывает невероятные перспективы, но одновременно и новые угрозы. Вопрос в том, стоит ли доверять корпорациям, имеющим доступ ко всему нашему цифровому существованию.