Новости ИИ9 часов

#CancelOpenAI: пользователи массово бойкотируют OpenAI из-за контрактов с Пентагоном и вранья

В социальных сетях и на профессиональных форумах набирает обороты движение #CancelOpenAI. Пользователи обвиняют компанию Сэма Альтмана в предательстве изначальных принципов и скрытом переходе на службу военно-промышленному комплексу США. Главным триггером стало тихое изменение пользовательского соглашения и контраст с принципиальной позицией конкурентов.

Суть конфликта

В январе 2024 года OpenAI без громких анонсов внесла критические правки в политику использования своих моделей. Из раздела запретов исчез пункт, не допускающий применение ИИ в «военных целях и ведения войны» (military and warfare).

Это юридическое изменение открыло компании путь к многомиллиардным государственным контрактам, но вызвало волну гнева среди ранних последователей и этически настроенных разработчиков.

Хронология предательства доверия

Ранее OpenAI позиционировала себя как некоммерческая структура, призванная защитить человечество от угроз ИИ. Теперь факты говорят об обратном:

  1. Снятие запрета: Формулировка о недопустимости военного использования была удалена. Вместо нее появилась размытая фраза о принципе «не наносить вред». Это позволило начать сотрудничество с Министерством обороны США (DOD).
  2. Интеграция со спецслужбами: В совет директоров OpenAI вошел Пол Накасоне — отставной генерал и бывший директор АНБ (NSA), главной структуры США, отвечающей за киберразведку и глобальную слежку.
  3. Контракты вместо принципов: Компания подтвердила работу с DARPA (агентство передовых оборонных проектов) над инструментами кибербезопасности, что фактически делает ее частью оборонного периметра США.

Контраст с конкурентами: пример Anthropic (Claude)

Масштаб морального падения OpenAI стал очевиден на фоне действий их главного конкурента — компании Anthropic (разработчики чат-бота Claude).

Как стало известно, Anthropic также получала предложения о сотрудничестве от оборонных ведомств, но отказалась подписывать контракты, содержащие спорные пункты. Компания заняла жесткую позицию по двум ключевым вопросам:

  • Никакого смертоносного оружия: Полный запрет на использование их ИИ для разработки или управления летальными автономными системами.
  • Никакой массовой слежки: Отказ предоставлять технологии для анализа данных в целях государственного шпионажа за гражданами.

В то время как Anthropic пожертвовала прибыльными сделками ради сохранения этических границ, OpenAI изменила свои правила всего за несколько часов, чтобы соответствовать требованиям заказчика.

Реакция сообщества

Пользователи расценили действия OpenAI как лицемерие. Вместо «честного труженика», готового потерять деньги ради принципов, они увидели беспринципного игрока, готового переписать моральный кодекс ради доступа к военным бюджетам.

Основные причины отписки от ChatGPT:

  • Финансирование войны: Нежелание оплачивать подписку, доходы от которой идут на развитие технологий двойного назначения.
  • Угроза приватности: Опасения, что данные пользователей теперь могут быть доступны спецслужбам через новые каналы сотрудничества (влияние генерала Накасоне).
  • Ложь: Компания обещала демократизацию ИИ, а вместо этого становится закрытым подрядчиком Пентагона.

Пользователи массово мигрируют на Claude и локальные модели с открытым исходным кодом (Open Source), заявляя, что OpenAI превратилась в то самое «зло», с которым обещала бороться при создании.

Предыдущая статья

Кардинально улучшаем промпт с помощью итеративного промптинга: 2 сильных видео

Следующая статья

Промпт-инжиниринг — это код, а не поэзия

Начать дискуссию

Оставить комментарий