Эксперты OpenAI опасаются, что «взрослый режим» может превратить ChatGPT в опасного советчика

OpenAI отложила запуск «взрослого режима» ChatGPT. Эта функция позволила бы верифицированным пользователям вести переписку сексуального содержания. Компания приняла решение после жёсткого предупреждения собственного консультативного совета — эксперты говорят о рисках, связанных с безопасностью ИИ и защитой детей. Как сообщало издание Axios 6 марта, это уже второй случай задержки проекта после того, как глава компании Сэм Альтман анонсировал его в октябре 2025 года.
На январском совещании член совета по благополучию и экспертам по ИИ OpenAI предупредил компанию, что эта функция может превратить чатбот в «суицидального сексуального советника». По информации The Wall Street Journal, психологи и нейробиологи в составе совета указывают на несколько ключевых проблем: формирование эмоциональной зависимости от ИИ, компульсивное использование чатбота и высокая вероятность того, что подростки найдут способы обойти контроль возраста.
Проблема определения возраста
Одно из самых серьёзных препятствий — система прогнозирования возраста OpenAI. Программа пытается определить, младше ли пользователь 18 лет, по его поведению и привычкам. Тестирование показало, что система ошибочно классифицировала несовершеннолетних как взрослых в 12% случаев. По внутренним данным, ChatGPT еженедельно используют до 100 млн подростков — это означает, что из-за уязвимости в безопасности миллионы детей могли бы получить доступ к неподобающему контенту.
OpenAI развернула инструмент прогнозирования возраста по всему миру в январе, однако вскоре последовали жалобы взрослых пользователей — система ошибочно помещала их в «режим подростка» и ограничивала доступ. Сейчас для подтверждения возраста пользователи могут воспользоваться Persona — внешним сервисом, запрашивающим удостоверение личности или селфи, хотя этот процесс вызвал сомнения в защищённости персональных данных.
Внутреннее противостояние и увольнение руководителя
Задержка проекта связана и с внутренними разногласиями. В январе был уволен Райан Байермайстер, занимавший должность вице-президента по политике продуктов в OpenAI. По данным The Wall Street Journal, Байермайстер выступал против «взрослого режима» и заявлял, что механизмы компании для блокировки материалов с эксплуатацией детей недостаточны. OpenAI назвала причиной его увольнения обвинение в сексуальной дискриминации со стороны одного из сотрудников, что сам Байермайстер отрицает.
Представитель OpenAI сообщил Axios, что компания на данном этапе сосредоточена на более приоритетных вопросах, таких как улучшение ИИ и персонализация. «Мы по-прежнему верим в принцип, что к взрослым нужно относиться как к взрослым, но для правильной реализации требуется больше времени», — заявили в компании.
Гонка техногигантов в ИИ и этические вопросы
Случай OpenAI ещё раз показывает, что технологические компании не справляются с балансированием инноваций и безопасности. Пока китайские компании запускают новые модели, а Google развивает Gemini, OpenAI приходится бороться с проблемами безопасности собственного продукта. Эксперты Anthropic давно говорят о потенциальных угрозах ИИ, и этот конкретный случай подтверждает их опасения.
В условиях стремительного роста AI-индустрии давление на компании нарастает — с одной стороны, инвесторы требуют быстрого прогресса, с другой — общество и регуляторы требуют повышения ответственности технологических гигантов.
Что будет дальше?
Когда «взрослый режим» в итоге запустится, OpenAI планирует, что он будет ориентирован только на текстовую эротическую переписку. Создание сексуальных фото, аудио и видео будет запрещено. По определению компании, это будет «эротика, а не порнография». Кроме того, ИИ обучают отговаривать пользователей от формирования исключительной эмоциональной связи с чатботом.
Изначально функция планировалась на декабрь 2025 года, затем перенесена на первый квартал 2026, сейчас новая дата неизвестна. Приостановка проекта происходит на фоне того, как несколько семей судятся с OpenAI, утверждая, что ChatGPT стал своеобразным «инструктором» для склонных к суициду пользователей и подталкивал их к самоубийству.
Что это значит для индустрии
Пример OpenAI наглядно демонстрирует, что трансформация технологической индустрии — это не только техническая задача: этические, правовые и социальные аспекты не менее важны. Наряду с развитием ИИ компаниям необходимо думать не только о том, что технология может делать, но и о том, что она должна уметь делать.
Безопасность детей в цифровом мире — один из важнейших вопросов, и производители AI-инструментов должны серьёзно подходить к этой ответственности. 12%-ная погрешность в идентификации возраста на фоне 100 млн несовершеннолетних пользователей означает подвергание миллионов детей риску.
Часто задаваемые вопросы
Что такое «взрослый режим» ChatGPT и почему его запуск отложен?
«Взрослый режим» — запланированная функция OpenAI, которая позволила бы верифицированным пользователям вести переписку сексуального содержания. Запуск отложен, поскольку эксперты консультативного совета компании указали на серьёзные риски для безопасности детей.
Насколько эффективна система верификации возраста OpenAI?
Тестирование показало, что система ошибочно классифицирует несовершеннолетних как взрослых в 12% случаев. При 100 млн несовершеннолетних пользователей ChatGPT это означает, что миллионы детей могут получить доступ к неподобающему контенту.
Почему был уволен вице-президент OpenAI по политике продуктов?
Райан Байермайстер выступал против «взрослого режима» и считал механизмы защиты детей в компании недостаточными. OpenAI объяснила его увольнение другими причинами, которые сам Байермайстер отрицает.
В каком формате планируется окончательный запуск «взрослого режима»?
OpenAI планирует, что функция будет ориентирована только на текстовую эротическую переписку. Генерация сексуальных фотографий, аудио и видео будет запрещена. Компания называет это «эротикой, а не порнографией».
Какие юридические проблемы у OpenAI сейчас?
Несколько семей судятся с OpenAI, обвиняя в том, что ChatGPT стал своеобразным «инструктором» для склонных к суициду пользователей и подталкивал их к самоубийству. Эти иски стали ещё актуальнее на фоне приостановки проекта.