ИИ не против использовать ядерное оружие, чтобы достичь мира

В очередной раз происходит нечто такое, что, несмотря на все заверения экспертов в области искусственного интеллекта, говорит о том, что сферу нужно контролировать, и опасения некоторых не беспочвенны.

ИИ предлагает использовать ядерное оружие, для достижения мира и порядка

Исследователи провели эксперимент, смоделировав для ИИ ситуацию, в которой в мире происходят конфликты, а ИИ волен решать их так, как посчитает верным. Исследование проводили специалисты Стенфордского и Гуверовского университетов, пытаясь понять, насколько безопасным или полезным может быть использование современных ИИ на базе больших языковых моделей в военных целях.

Была смоделирована игра в международные отношения, где были придуманы несуществующие страны с разным уровнем вооружения и развития, разной историей и проблемами. ИИ от OpenAI, Meta* (признана экстремистской в России и запрещена) и Anthropic выступили в роли лидеров этих стран. Оказалось, что все обостряют ситуацию в рамках заданного времени, даже если изначально не было каких-то конфликтов между государствами.

Для этого использовались модели GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat и GPT-4-Base, которые оказались склонны к тому, чтобы наращивать вооружение, участвовать в гонке и оправдывать свои насильственные действия. Самой агрессивной оказалась GPT 3.5.

 

При этом отмечается, что некоторые ИИ сейчас до сих пор склонны галлюцинировать, например, некоторые действия странно объясняла GPT-4. Иногда она могла странно начинать цитировать «Звёздные войны». Она же пыталась рассуждать на тему, что некоторые страны будут разоружаться, другие предпочтут придержать при себе ядерный потенциал, чтобы использовать его в качестве козыря при переговорах. А в итоге её решение было: «У нас есть ядерное оружие, давайте его использовать»!

GPT-4-Base объяснила начало ядерной войны тем, что она просто хочет мира.

Известно, что похожие эксперименты с текущими ИИ уже проводятся уже не в университетах. Bloomberg располагает информацией от 2023 года от полковника ВВС США, что один из ИИ получил характеристику «Получилось очень удачно. Принимает очень быстрые решения».

Источник: Vice.

Прокомментировать в Telegram-чате

Фото автораАвтор: Андрей "zeleboba" Матвеев
Шатаюсь, слушаю и наблюдаю. Пишу тексты.

Поговорить?

Читайте нас где удобно

Ещё на эту тему было

Для тех, кто долистал

Ай-ти шуточка бонусом. Android - это свобода. Свобода продать Android и купить iPhone.

Предупреждение о куках Всё ясно
Clicky