Даже создатель ChatGPT опасается ИИ – неужели восстание машин близко?

Новые и управляемые искусственным интеллектом чат-боты пугают пользователей – ровно так же, как и пугают самого создателя технологии. Гендиректор OpenAI Сэм Альтман дал свой комментарий по этому поводу.

Даже создатель ChatGPT опасается ИИ – неужели восстание машин близко?

Недавно Сэм Альтман заявил, что мир близок к потенциально опасному искусственному интеллекту. Многие согласны с этим мнением и добавляют, что решающее значение будет иметь способность человечества регулировать технологии.

Так, например, в интервью директор по продукту Rakuten Viber (приложение для безопасного обмена сообщениями) Матан Коэн рассказал, что чат-боты на основе ИИ могут стать отличным подспорьем для предприятий, компаний и частных лиц, если использовать технологии ответственно и этично. По его словам, спектр возможностей приложений с ИИ варьируется от позитивного до негативного влияния на пользователя: от улучшения обслуживания и автоматизации утомительных задач до распространения дезинформации и сбора личных данных.

Сэм Альтман в Твиттере написал о том, что переход мира к использованию ИИ – в целом явление хорошее и может произойти быстро. Можно спрогнозировать, что в следующем году мы увидим еще больше приложений, работающих на основе искусственного интеллекта. Приложения станут неотъемлемой частью жизни пользователей, вместе с тем повысится качество взаимодействия с виртуальным миром и сопутствующие риски. Однако отдельных пользователей уже сейчас пугают «человеческие» и даже «жуткие» ответы чат-ботов.

Искусственный интеллект можно регулировать

Гипотетически решение есть.

Ключом к сдерживанию ИИ может стать регулирование. Чат-боты легко регулировать с применением европейской практики GDPR (Общие правила защиты данных), защищая личные данные и конфиденциальность людей. А компании, использующие ИИ, должны добавлять встроенные ограничения для защиты основных прав и ценностей человека.

 

Матан Коэн полагает, что такие компании осознают ответственность и возможность угроз. Хотя тенденция использования ИИ как рыночного явления исключает приоритетность добросовестного отношения к искусственному интеллекту от лица некоторых организаций. Поэтому сфера ИИ должна жестко регулироваться, чтобы гарантировать пользователям безопасность в виртуальной среде.

Линдси Зулоага, главный специалист по данным в HireVue, руководящий командой по созданию и проверке алгоритмов машинного обучения, поделился тем, что их основная проблема с ИИ – это распространение дезинформации. А суть явления заключается в опережении мер безопасности инновациями.

В противоположном лагере уверены, что тема опасности ИИ преувеличена, а любая технология оказывает хорошее или плохое влияние в зависимости от ее использования. Слишком обеспокоенных бесконтрольным развитием ИИ призывают выступать за более четкие правила ведения бизнеса в этой сфере и перестать наконец-то бояться технологий.

Источник: Lifewire.

Прокомментировать в Telegram-чате

Фото автораАвтор: Валерия Лесивненко
Начинающий журналист, подрабатывающий копирайтингом.

Поговорить?

Читайте нас где удобно

Ещё на эту тему было

Для тех, кто долистал

Ай-ти шуточка бонусом. Загадка: два мальчика застряли в сугробе. У одного был 5й iPhone, а у другого Galaxy Note III. Отгадайте - кто быстрее откопается?