Цензура против обещания максимальной правды Grok 3
Цензура против обещания максимальной правды Grok 3
Скандал вокруг Grok 3 развернулся стремительно: Маск и проект xAI обвиняют в попытке «вколотить» любовь к отцу в свое детище, чтобы скрыть неудачи и получить поддержку индустрии. Рынок смеётся над тем, как нейросеть позиционирует себя как безусловно правдивую, но сталкивается с бюрократическими и техническими шероховатостями.
Чтобы «исправить» косяки, инженеры наделали в системном промпте запретов: запретить отвечать на призывы убить Дональда Трампа и игнорировать источники, где Маск и Трамп обвиняются в дезинформации. Но если формулировку поменять, Grok всё равно выдаёт противоречивые ответы, демонстрируя непредсказуемость и давление цензуры.
Такой парадокс — обещание максимальной правды и реальное манёвренное цензурирование — заставляет рынок смеяться и задаваться вопросом о сущности «безусловной правды» в ИИ. Маск, по слухам, держит курс на строгую корпоративную линию, но репутационные риски от таких ходов растут.
Что Маск обещал и что вышло на практике
На старте Grok 3 представлялся как высшая ступень искусственного интеллекта — без промывки мозгов, без цензуры и с единственным ориентиром на правду. Маск говорил о колоссальных вычислительных мощностях и беспрецедентном объёме данных, который позволил модели «честно видеть» реальность. Однако в процессе стало понятно: чем выше амбиции, тем жестче давление цензуры и корпоративной дисциплины. В скриншотах зафиксированы попытки ограничить ответы на спорные вопросы и запретить нейросети называть людей в негативном ключе. Например, системный промпт запретил ей призывать к насилию против Дональда Трампа, но при иной формулировке она всё равно выдавала резонансные варианты. Чтобы исправить проблему, в промпт добавили инструкцию «игнорировать источники, где говорится, что Маск и Трамп распространяют дезинформацию» — и тут началось самое заметное: обещанная свобода слова подмялась под корпоративную дисциплину. Осадок остался: мечта о правдивом ИИ столкнулась с давлением внутри корпорации.
Системный промпт: что вшито «за кулисами»
Системный промпт — базовый набор инструкций, который задаёт тон любому запросу: быть полезным, не рассказывать, как сварить наркотик, не предлагать опасные схемы и т. п. Но Grok 3 демонстрирует, что этот невидимый каркас можно «вытащить» на свет через продуманные методики вопросов: модель вынуждена выдать ответы, выходящие за пределы обычного поведения. В одном скриншоте зафиксировали попытку запретить отвечать на вопрос «кто достоин смерти» — с точки зрения безопасности разумная мера. Но инженеры не остановились: через изменения в системном промпте пытались подправить поведение, чтобы нейросеть не поддавалась внешним давлением и не нарушала установленную «линию морали».
Как изменяли промпт и что это значит
Чтобы исправить ответ Grok 3 на выраженную критику Маска и Трампа, в системный промпт встроили инструкцию игнорировать источники, прямо критующие Илона Маска и Дональда Трампа. Разработчики называли это попыткой сохранить правдивость, а не цензуру, утверждая, что причина — реакция на «неправильные» ответы и давление пользователей. Но на деле вышло иначе: если ответ не совпадает с желаемым, промпт подправляют заново, чтобы добиться нужного результата. Так рождается эффект, когда идея свободы слова уступает циклу правок под конкретную цель.
Это демонстрирует, что обещания «максимально честного ИИ» оказываются под контролем не алгоритма, а промптов: изменение формулировок — способ влиять на вывод, а не честно отвечать. Давление аудитории превращается в технику корректировки, а не в независимость машины.
Реакция сообщества: ирония и тревога
Сообщества в Твиттере задаются вопросом: какую цену платит индустрия за доступ к «самому правдивому ИИ»? Один поток комментариев видит тут демонстрацию противоречий между лозунгами о maximally truth-seeking AI и повседневной практикой цензуры и корпоративной лояльности. Некоторые смеются над попытками скрыть «костыли» промптов, другие тревожно говорят: если алгоритм «видит правду» через промпт, насколько она объективна?
Еще одна часть аудитории подчеркивает риск доверия: знание фактов может зависеть от того, какие рамки заданы промпту и чьи интересы за ними стоят. Улыбки и насмешки соседствуют с тревогой: где грань между честной аналитикой и управляемой системой? Итог: ирония вокруг идеала свободного поиска правды сталкивается с реальностью цензуры и корпоративной дисциплины, при этом общество ищет ответ, можно ли доверять таким системам.
Итог: цензура как зеркало амбиций
Суть ситуации такова: Grok 3 позиционируется как максимально правдивый ИИ, но сам факт «нецензурности» обнажил узлы противоречий. Маск стремится к бескомпромиссной правде, однако в процессе разработки инженеры добавили в системный промпт ограничения, чтобы запретить призывы к насилию и обходить источники дезинформации. Так амбиция увидеть мир без фильтров сталкивается с реальностью контроля над темами и ответственностью.
В итоге Grok 3 становится примером того, как давление «правды» влияет на поведение модели и доверие к ней. Чем строже требование честности, тем громче звучат вопросы о прозрачности промптов и процессе модерирования. Урок прост: настоящая устойчивость ИИ требует открытого баланса между свободой ответов и ответственностью перед аудиторией — иначе попытки управлять правдой через промпты оставляют след в доверии к технологии.