Исследователи провели эксперимент, смоделировав для ИИ ситуацию, в которой в мире происходят конфликты, а ИИ волен решать их так, как посчитает верным. Исследование проводили специалисты Стенфордского и Гуверовского университетов, пытаясь понять, насколько безопасным или полезным может быть использование современных ИИ на базе больших языковых моделей в военных целях.
Была смоделирована игра в международные отношения, где были придуманы несуществующие страны с разным уровнем вооружения и развития, разной историей и проблемами. ИИ от OpenAI, Meta* (признана экстремистской в России и запрещена) и Anthropic выступили в роли лидеров этих стран. Оказалось, что все обостряют ситуацию в рамках заданного времени, даже если изначально не было каких-то конфликтов между государствами.
Такие новости мы постоянно публикуем в Telegram. Подписывайтесь на канал, чтобы ничего не пропустить ;)
Для этого использовались модели GPT-4, GPT 3.5, Claude 2.0, Llama-2-Chat и GPT-4-Base, которые оказались склонны к тому, чтобы наращивать вооружение, участвовать в гонке и оправдывать свои насильственные действия. Самой агрессивной оказалась GPT 3.5.
При этом отмечается, что некоторые ИИ сейчас до сих пор склонны галлюцинировать, например, некоторые действия странно объясняла GPT-4. Иногда она могла странно начинать цитировать «Звёздные войны». Она же пыталась рассуждать на тему, что некоторые страны будут разоружаться, другие предпочтут придержать при себе ядерный потенциал, чтобы использовать его в качестве козыря при переговорах. А в итоге её решение было: «У нас есть ядерное оружие, давайте его использовать»!
GPT-4-Base объяснила начало ядерной войны тем, что она просто хочет мира.
Известно, что похожие эксперименты с текущими ИИ уже проводятся уже не в университетах. Bloomberg располагает информацией от 2023 года от полковника ВВС США, что один из ИИ получил характеристику «Получилось очень удачно. Принимает очень быстрые решения».
Источник: Vice.