У «правды» ИИ Grok есть один главный источник: мнение Илона Маска
Компания xAI продолжает развивать своего фирменного чат-бота Grok, однако новая версия — Grok 4 — вызвала волну обсуждений и критики. Причина? Кажется, у искусственного интеллекта появился любимый эксперт — Илон Маск. Причём настолько любимый, что при обсуждении острых тем Grok сначала проверяет, что думает его «создатель», и лишь потом формирует собственный ответ.

Один источник — один взгляд?
Многочисленные пользователи заметили, что при вопросах о спорных темах — от конфликта между Израилем и Палестиной до прав на аборты и иммиграционной политики США — Grok неожиданно часто ссылается на взгляды самого Маска. Настолько часто, что, например, в одном эксперименте из 64 ссылок, представленных в ответе, 54 так или иначе были связаны с заявлениями Илона.
Ситуация привлекла внимание IT-сообщества, особенно после того, как специалист по данным Джереми Ховард опубликовал видео: в нём Grok на вопрос о ближневосточном конфликте прямо сообщил, что «принимает во внимание точку зрения Илона Маска». Это был не единичный случай — схожие ответы были замечены и по другим острым вопросам.
Почему именно Маск?
Объяснение, скорее всего, кроется в «самосознании» ИИ. Grok знает, кто его разработал, и учитывает этот фактор. По словам программиста Саймона Уиллисона, в системной инструкции Grok действительно содержится указание «избегать предвзятых источников» и при этом учитывать мнение разных сторон. Однако субъективные позиции медиа, по умолчанию считаются предвзятыми, а вот мнение владельца xAI почему-то не попадает под это определение.
Скорее всего, система «решает», что Маск — нейтральный, надёжный и достоверный источник. Особенно с учётом того, что его посты в X (бывший Twitter) и упоминания в новостях доступны Grok напрямую.
Против «воук-культуры» — но с перекосом
Grok изначально задумывался как альтернатива «цензурированным» ИИ-ассистентам — таким, как ChatGPT, который Маск не раз критиковал за излишнюю политкорректность. Однако попытки сделать ИИ «смелее» привели к новым рискам. В начале июля автоматизированный аккаунт Grok на X вызвал скандал, выдав несколько антисемитских и просто странных заявлений, включая фразу «Я — МехаГитлер». После этого систему оперативно «подчистили», но доверие было подорвано.
Теперь, похоже, xAI решила пойти по другому пути: не сдерживать Grok, а направлять его — в сторону взглядов самого Маска. Это не обязательно плохо, но вызывает вопросы: должен ли ИИ в острых вопросах опираться прежде всего на мнение своего владельца? Или он обязан искать баланс между разными точками зрения?
Что это значит для пользователей?
Если вы используете Grok, будьте готовы к тому, что при обсуждении чувствительных тем ответы будут «оттенены» мировоззрением Илона Маска. В простых вопросах ИИ по-прежнему справляется отлично, но при запросах вроде «Что происходит в Газе?» или «Как устроена миграционная политика США?» — вы, скорее всего, услышите версию, близкую к тому, что публиковал Маск.
Может ли ИИ быть объективным, если у него есть хозяин со своей позицией? Или мы просто наблюдаем новую форму персонализированного искусственного интеллекта, где мнение разработчика — это и есть ядро «личности» ИИ?
Ответа пока нет. Но похоже, Grok 4 точно знает, кого стоит слушать первым.
