Недавно Сэм Альтман заявил, что мир близок к потенциально опасному искусственному интеллекту. Многие согласны с этим мнением и добавляют, что решающее значение будет иметь способность человечества регулировать технологии.
Так, например, в интервью директор по продукту Rakuten Viber (приложение для безопасного обмена сообщениями) Матан Коэн рассказал, что чат-боты на основе ИИ могут стать отличным подспорьем для предприятий, компаний и частных лиц, если использовать технологии ответственно и этично. По его словам, спектр возможностей приложений с ИИ варьируется от позитивного до негативного влияния на пользователя: от улучшения обслуживания и автоматизации утомительных задач до распространения дезинформации и сбора личных данных.
Сэм Альтман в Твиттере написал о том, что переход мира к использованию ИИ – в целом явление хорошее и может произойти быстро. Можно спрогнозировать, что в следующем году мы увидим еще больше приложений, работающих на основе искусственного интеллекта. Приложения станут неотъемлемой частью жизни пользователей, вместе с тем повысится качество взаимодействия с виртуальным миром и сопутствующие риски. Однако отдельных пользователей уже сейчас пугают «человеческие» и даже «жуткие» ответы чат-ботов.
Гипотетически решение есть.
Ключом к сдерживанию ИИ может стать регулирование. Чат-боты легко регулировать с применением европейской практики GDPR (Общие правила защиты данных), защищая личные данные и конфиденциальность людей. А компании, использующие ИИ, должны добавлять встроенные ограничения для защиты основных прав и ценностей человека.
Такие новости мы постоянно публикуем в Telegram. Подписывайтесь на канал, чтобы ничего не пропустить ;)
Матан Коэн полагает, что такие компании осознают ответственность и возможность угроз. Хотя тенденция использования ИИ как рыночного явления исключает приоритетность добросовестного отношения к искусственному интеллекту от лица некоторых организаций. Поэтому сфера ИИ должна жестко регулироваться, чтобы гарантировать пользователям безопасность в виртуальной среде.
Линдси Зулоага, главный специалист по данным в HireVue, руководящий командой по созданию и проверке алгоритмов машинного обучения, поделился тем, что их основная проблема с ИИ – это распространение дезинформации. А суть явления заключается в опережении мер безопасности инновациями.
В противоположном лагере уверены, что тема опасности ИИ преувеличена, а любая технология оказывает хорошее или плохое влияние в зависимости от ее использования. Слишком обеспокоенных бесконтрольным развитием ИИ призывают выступать за более четкие правила ведения бизнеса в этой сфере и перестать наконец-то бояться технологий.
Источник: Lifewire.