Грязный шлейф искусственного интеллекта и модных чат-ботов – какова цена за пользовательское удобство?

Эти инструменты ИИ задействуют большие языковые модели для восприятия сложных вопросов и предоставления ответов на них же. Теперь компании пытаются интегрировать их в поисковые системы, впечатляясь идеей о том, что такой подход создаст новые и более удобные условия взаимодействия пользователей с поисковиками.

Очевидна и обратная сторона прогресса. Уже запущенная гонка за созданием высокопроизводительных поисковых систем на основе ИИ, логично, потребует резкого увеличения вычислительной мощности. Вместе с тем возрастет количество энергии, необходимое компаниям. Последнее звено «обозримых» последствий в этой цепи – увеличение выбросов углерода.

Обучение больших языковых моделей, которые, например, лежат в основе ChatGPT OpenAI и будут использоваться Microsoft и аналогичные в Google, предполагает синтаксический анализ и вычисление связей в огромных объемах данных, поэтому проекты разрабатываются гигантами рынка со значительными ресурсами.

OpenAI и Google не распространяются насчет стоимости вычислений их продуктов. А вот сторонние исследователи охотно дают комментарии, якобы обучение GPT-3, на котором частично основан ChatGPT, потребляло 1287 МВтч и привело к выбросам более 550 тонн эквивалента углекислого газа. Для простого обывателя цифры не совсем понятны, поэтому приводим пример: это равняется тому, что один человек совершает 550 поездок туда и обратно между Нью-Йорком и Сан-Франциско. Но и обучением все не заканчивается, ведь нужно обслуживать миллионы обывателей.

Такие новости мы постоянно публикуем в Telegram. Подписывайтесь на канал, чтобы ничего не пропустить ;)

Также есть существенная разница между использованием ChatGPT, который в качестве отдельного продукта насчитывает 13 млн пользователей в день, и его интеграцией в Bing, что обрабатывает полмиллиарда поисковых запросов ежедневно.

Соучредитель канадской компании QScale Мартин Бушар, ознакомившись с планами корпораций, полагает, что добавление генеративного ИИ потребует в 4-5 раз больше вычислений для каждого поиска. А если они собираются часто переобучать модель и дополнять новые параметры? Масштаб еще больше меняется. Все это возможно с внесением колоссальных инвестиций в оборудование. Действующие центры обработки данных не смогут справиться с гонкой ИИ.

Так, по статистике Международного энергетического агентства, на центры обработки данных уже приходится примерно 1% мировых выбросов парниковых газов. И, кажется, этот показатель только будет расти. Хотя компании типа Google (со своей поисковой системой) пообещали снизить такие негативные факторы, вкладываемые в глобальное потепление. Да, ИИ, по сравнению с транспортом или текстильной промышленностью, – меньшее из зол, однако значительный вклад в обострение экологической обстановки может внести.

При этом держим в памяти, что в Microsoft сулили углеродно-отрицательный статус компании до 2050 года, а Google пообещала к 2030 добиться нулевых выбросов.

Воздействие на окружающую среду и затраты на интеграцию ИИ в поисковики все-таки можно уменьшить. Для этого нужно перевести центры обработки данных на более чистые источники энергии и перепроектировать нейронные сети, сделав их более эффективными и сократив «время вывода» — объем вычислительной мощности, необходимой для алгоритма работы с новыми данными.

Вопрос лишь в том, стоит ли все это не столь впечатляющего выигрыша в точности, как в случае с Google?

Источник: Wired.

Похожее:

  1. Для обработки всего пяти запросов ChatGPT может потребоваться до 500 мл воды
  2. Даже создатель ChatGPT опасается ИИ – неужели восстание машин близко?
  3. Как отличить ответы, сгенерированные ChatGPT от текста, написанного человеком?
  4. Судья использовал ChatGPT для решения по рассматриваемому делу