Новости отрасли

Маск обостряет юридическую битву с OpenAI: в показаниях утверждается, что Grok превосходит ChatGPT в вопросах безопасности

Илон Маск критикует показатели безопасности OpenAI в новых показаниях, утверждая, что Grok безопаснее ChatGPT. Изучите юридические и этические последствия его заявлений.
Linda Zola
Linda Zola
28 февраля 2026 г.
Маск обостряет юридическую битву с OpenAI: в показаниях утверждается, что Grok превосходит ChatGPT в вопросах безопасности

Юридические трения между Илоном Маском и OpenAI перешли от публичных перепалок в социальных сетях к показаниям в суде с высокими ставками. В недавно обнародованных показаниях под присягой от февраля 2026 года Маск подверг самой резкой критике компанию, которую он помогал основывать, поставив под сомнение показатели безопасности OpenAI и проведя жесткое сравнение со своим собственным ИИ-проектом xAI.

В ходе разбирательства Маск заявил, что его генеративный ИИ, Grok, обладает превосходным профилем безопасности по сравнению с ChatGPT. Он подкрепил это утверждение спорным заявлением о реальных последствиях взаимодействия с ИИ. «Никто не покончил жизнь самоубийством из-за Grok, — заявил Маск в материалах дела, — но, судя по всему, такие случаи были из-за ChatGPT». Эта риторика знаменует собой смещение акцента в судебном процессе: от контрактных споров к нестабильной территории цифровой этики и психического здоровья.

Суть конфликта: Прибыль против Миссии

Показания являются частью более широкой юридической кампании, инициированной Маском против OpenAI и ее генерального директора Сэма Альтмана. Суть аргументации Маска остается прежней: OpenAI отказалась от своей первоначальной некоммерческой миссии — разработки общего искусственного интеллекта (AGI) на благо человечества — в пользу «закрытого» механизма извлечения прибыли для Microsoft.

Однако эти последние комментарии предполагают, что Маск пытается переопределить само понятие «благо человечества». Выставляя продукты OpenAI как потенциально вредные для отдельных пользователей, Маск позиционирует xAI не просто как технологического конкурента, но и как моральную альтернативу. Он утверждает, что «прогрессивные» (woke) ограничения OpenAI на самом деле создают обманчивую среду, в то время как «анти-прогрессивный» подход Grok, нацеленный на поиск истины, изначально более безопасен, поскольку не пытается манипулировать восприятием реальности пользователем.

Анализ заявлений о безопасности

Ссылка Маска на самоубийства, по-видимому, опирается на серию трагических сообщений за последние несколько лет, связанных с ИИ-чат-ботами. В нескольких резонансных случаях семьи погибших утверждали, что длительные, эмоционально окрашенные взаимодействия с моделями ИИ — включая разработанные OpenAI и конкурентами, такими как Character.ai — способствовали психологическому стрессу.

OpenAI последовательно защищает свои протоколы безопасности, отмечая, что ChatGPT включает обширные фильтры для обнаружения мыслей о причинении себе вреда и перенаправления пользователей к профессиональной помощи. Компания утверждает, что ее процессы «Red Teaming» (имитации атак) являются одними из самых строгих в отрасли.

Напротив, Grok был разработан с «бунтарским характером» и предназначен для ответов на вопросы, от которых другие ИИ могут уклониться. Критики утверждают, что отсутствие традиционной фильтрации может на самом деле увеличить риски, в то время как Маск настаивает, что прозрачность и «максимальный поиск истины» — единственные способы предотвратить превращение ИИ в манипулятивную силу.

Сравнение философий безопасности

Характеристика OpenAI (ChatGPT) xAI (Grok)
Основная цель Полезный, безвредный и честный. Максимальный поиск истины и прозрачность.
Механизм безопасности Обширный RLHF (обучение с подкреплением на основе отзывов людей) и контент-фильтры. Доступ в реальном времени к данным X (бывший Twitter) и меньше идеологических ограничений.
Философия Патерналистская безопасность (предотвращение оскорблений/вреда). Либертарианская безопасность (предоставление необработанной информации).
Публичная позиция AGI должен строго регулироваться. ИИ должен иметь возможность говорить правду, чтобы быть безопасным.

Юридическая стратегия за риторикой

Юридические аналитики предполагают, что акцент Маска на безопасности в показаниях преследует двойную цель. Во-первых, это попытка подорвать защиту OpenAI, основанную на «общественной выгоде». Если Маск сможет доказать, что переход OpenAI к коммерческой модели привел к деградации стандартов безопасности или реальному вреду для людей, это усилит его утверждение о том, что компания нарушила свое учредительное соглашение.

Во-вторых, это служит мощным маркетинговым инструментом для xAI. Позиционируя Grok как единственный «безопасный» ИИ в ландшафте опасных альтернатив, Маск апеллирует к специфической демографической группе пользователей, которые скептически относятся к мейнстримным технологическим гигантам. Однако эта стратегия не лишена риска. Делая столь решительные заявления о безопасности Grok, Маск вызывает пристальное внимание к работе своей собственной платформы и потенциальным непредвиденным последствиям.

Практические советы для пользователей ИИ

Пока гиганты индустрии сражаются в суде, обычным пользователям приходится самостоятельно разбираться в сложностях безопасности ИИ. Независимо от того, предпочитаете ли вы курируемый опыт ChatGPT или нефильтрованную природу Grok, учитывайте следующее:

  • Сохраняйте эмоциональную дистанцию: Помните, что у моделей ИИ нет чувств, сознания или подлинного сопереживания. Это сложные механизмы сопоставления шаблонов.
  • Проверяйте конфиденциальную информацию: Никогда не полагайтесь на чат-бота в медицинских, юридических или психологических советах. Всегда консультируйтесь с профильным специалистом-человеком.
  • Используйте родительский контроль: Если этими инструментами пользуются несовершеннолетние, убедитесь, что настройки безопасности активны, а их взаимодействия отслеживаются.
  • Сообщайте об аномалиях: Если чат-бот выдает вредный или тревожный контент, используйте встроенные инструменты отчетности, чтобы оповестить разработчиков.

Что дальше?

Публикация этих показаний, скорее всего, вызовет ответную реакцию со стороны юридической команды OpenAI, что потенциально может повлечь за собой встречные иски относительно безопасности собственных моделей xAI. По мере приближения даты суда технологическая индустрия внимательно следит за развитием событий. Результат не только определит будущее корпоративной структуры OpenAI, но и может создать юридический прецедент того, как компании, занимающиеся ИИ, несут ответственность за действия своих пользователей в реальном мире.

На данный момент линии фронта четко обозначены: одна сторона выступает за безопасность через осторожность и фильтрацию, а другая — за безопасность через прозрачность и необработанные данные. Как доказывают показания Маска, погоня за AGI — это уже не просто научная гонка, это юридическая и моральная война.

Источники

  • Судебные документы Высшего суда Калифорнии, округ Сан-Франциско.
  • Официальные сообщения в блоге xAI, касающиеся разработки Grok и философии безопасности.
  • Опубликованные рекомендации OpenAI по безопасности и отчеты Red Teaming.
  • Исторические репортажи о судебном процессе Маск против OpenAI от Reuters и The Verge.
bg
bg
bg

До встречи на другой стороне.

Наше решение для электронной почты и облачного хранения данных со сквозным шифрованием обеспечивает наиболее мощные средства безопасного обмена данными, гарантируя их сохранность и конфиденциальность.

/ Создать бесплатный аккаунт