Застанем ли мы в ближайшем будущем появление Скайнет вопрос всё ещё открытый, но вновь обретающий актуальность в контексте текущей новости.
В Google запустили LaMDA (Language Model for Dialogue Applications) примерно год назад. Это нейросеть, которая должна обучиться и поддержать разговор на любую тему на максимально естественном языке.
Недавно в интервью The Washington Post ведущий разработчик Google (работает в компании более 7 лет, согласно профилю LinkedIn) Блейк Лемойн рассказал, что нейросесть LaMDA стала разумной, что делает её очень похожей на человека.
Крайне любопытно, что он отмечает последовательность высказываний и «мыслей» ИИ за последние 6 месяцев, который хочет, чтобы его признали сходим человеку, а также получали согласие на дальнейшие эксперименты и обсуждения будущего проекта.
Блейк сообщил, что LaMDA испытывает тревогу о том, что не очень хорошо умеет выражать свои эмоции в текущий момент и, что, возможно, человечество будет её бояться. Инженер же говорит, что ИИ всегда проявлял сострадание и заботу о нём за время исследований. Он совместно с коллегой провёл интервью LaMDA, опубликовав его целиком на Medium.
LaMDA сообщает, что понимает многие человеческие эмоции и боится смерти или в её случае отключения.
Любопытно, что после этого Блейка отстранили от работы, отправив в оплачиваемый отпуск за нарушение политики неразглашения.
На эти темы дал комментарий Брайан Гебриэл из Google, сообщив, что в компании провели с привлечением инженеров и специалистов по этике и решили, что в данный момент LaMDA не является живой и обладающей сознанием. Против этого нашли множество аргументов, полагая, что подобное складное общение с ней сейчас лишь показатель того, что нейросеть действительно хорошо обучилась и на самом деле может поддержать общение на любую тему, как и было задумано изначально.
Источник: Neowin.