Даже создатель ChatGPT опасается ИИ – неужели восстание машин близко?
Недавно Сэм Альтман заявил, что мир близок к потенциально опасному искусственному интеллекту. Многие согласны с этим мнением и добавляют, что решающее значение будет иметь способность человечества регулировать технологии.
Так, например, в интервью директор по продукту Rakuten Viber (приложение для безопасного обмена сообщениями) Матан Коэн рассказал, что чат-боты на основе ИИ могут стать отличным подспорьем для предприятий, компаний и частных лиц, если использовать технологии ответственно и этично. По его словам, спектр возможностей приложений с ИИ варьируется от позитивного до негативного влияния на пользователя: от улучшения обслуживания и автоматизации утомительных задач до распространения дезинформации и сбора личных данных.
Сэм Альтман в Твиттере написал о том, что переход мира к использованию ИИ – в целом явление хорошее и может произойти быстро. Можно спрогнозировать, что в следующем году мы увидим еще больше приложений, работающих на основе искусственного интеллекта. Приложения станут неотъемлемой частью жизни пользователей, вместе с тем повысится качество взаимодействия с виртуальным миром и сопутствующие риски. Однако отдельных пользователей уже сейчас пугают «человеческие» и даже «жуткие» ответы чат-ботов.
Искусственный интеллект можно регулировать
Гипотетически решение есть.
Ключом к сдерживанию ИИ может стать регулирование. Чат-боты легко регулировать с применением европейской практики GDPR (Общие правила защиты данных), защищая личные данные и конфиденциальность людей. А компании, использующие ИИ, должны добавлять встроенные ограничения для защиты основных прав и ценностей человека.
Такие новости мы постоянно публикуем в Telegram. Подписывайтесь на канал, чтобы ничего не пропустить ;)
Матан Коэн полагает, что такие компании осознают ответственность и возможность угроз. Хотя тенденция использования ИИ как рыночного явления исключает приоритетность добросовестного отношения к искусственному интеллекту от лица некоторых организаций. Поэтому сфера ИИ должна жестко регулироваться, чтобы гарантировать пользователям безопасность в виртуальной среде.
Линдси Зулоага, главный специалист по данным в HireVue, руководящий командой по созданию и проверке алгоритмов машинного обучения, поделился тем, что их основная проблема с ИИ – это распространение дезинформации. А суть явления заключается в опережении мер безопасности инновациями.
В противоположном лагере уверены, что тема опасности ИИ преувеличена, а любая технология оказывает хорошее или плохое влияние в зависимости от ее использования. Слишком обеспокоенных бесконтрольным развитием ИИ призывают выступать за более четкие правила ведения бизнеса в этой сфере и перестать наконец-то бояться технологий.
Источник:
Тогда можно поддержать её лайком в соцсетях. На новости сайта вы ведь уже подписались? ;)
Или хотя бы оставить довольный комментарий, чтобы мы знали, какие темы наиболее интересны читателям. Кроме того, нас это вдохновляет. Форма комментариев ниже.
Что с ней так? Своё негодование вы можете высказать на zelebb@gmail.com или в комментариях. Мы постараемся учесть ваше пожелание в будущем, чтобы улучшить качество материалов сайта. А сейчас проведём воспитательную работу с автором.
Поговорить?
Читайте нас где удобно
Ещё на эту тему было
- Для обработки всего пяти запросов ChatGPT может потребоваться до 500 мл воды
- Как отличить ответы, сгенерированные ChatGPT от текста, написанного человеком?
- Грязный шлейф искусственного интеллекта и модных чат-ботов – какова цена за пользовательское удобство?
- Судья использовал ChatGPT для решения по рассматриваемому делу
Для тех, кто долистал
Ай-ти шуточка бонусом. Загадка: два мальчика застряли в сугробе. У одного был 5й iPhone, а у другого Galaxy Note III. Отгадайте - кто быстрее откопается?