Развитие искусственного интеллекта воспринимается как шаг в будущее, но за быстрыми ответами чат-ботов скрывается огромная энергетическая цена. Чтобы модели могли обучаться и работать, требуются серверные фермы с тысячами процессоров, и их аппетит к электричеству растёт с каждым поколением технологий.
Процесс обучения нейросетей — одна из самых затратных стадий. Для запуска GPT-4 понадобилось около 50 гигаватт-часов электроэнергии — это примерно столько же, сколько Сан-Франциско потребляет за три дня. Другие модели, например BLOOM или GPT-3, показали сопоставимые или ещё более высокие значения. Причина проста: чем больше параметров, тем выше точность, а значит, больше нагрузки на оборудование и больше энергозатраты.
Серверные кластеры состоят из сотен графических процессоров, работающих непрерывно неделями. Дата-центры, где они расположены, нуждаются в постоянном охлаждении и сами становятся важными потребителями электричества.
После завершения обучения модели продолжают потреблять энергию при каждом запросе. На отдельном уровне это незаметно, но миллиарды обращений ежедневно превращают процесс в серьёзный фактор для мировой энергетики. Только ChatGPT обрабатывает более 2,5 млрд запросов в день, и каждый из них требует работы серверов.
В США дата-центры уже потребляют около 4,4% всей электроэнергии. К 2030 году эта цифра может удвоиться. В мировом масштабе ИИ-технологии отвечают примерно за 1,5% глобального энергопотребления.
| Модель | Энергопотребление при обучении | Пример сравнения |
|---|---|---|
| GPT-4 | ≈ 50 ГВт·ч | 3 дня энергопотребления Сан-Франциско |
| BLOOM | 433 МВт·ч | Энергия для 40 000 домов на месяц |
| GPT-3 | ~ в 3 раза больше BLOOM | Потребление небольшого города |
Представьте, что каждая поисковая система и голосовой ассистент работают на уровне ChatGPT. По оценке SemiAnalysis, только для Google потребуется свыше 500 000 серверов. Энергозатраты будут сопоставимы с годовым потреблением Ирландии.
| Плюсы | Минусы |
|---|---|
| Развитие алгоритмов и улучшение точности | Рост глобального энергопотребления |
| Новые возможности для бизнеса | Увеличение нагрузки на инфраструктуру |
| Потенциал для оптимизации | Угроза экологическому балансу |
Почему ИИ потребляет так много энергии?
Потому что обучение требует обработки гигантских массивов данных и работы тысяч процессоров.
Что дороже по энергии: обучение или использование?
Обучение требует огромных затрат сразу, но при массовых запросах инференс может обгонять по суммарному потреблению.
Можно ли сделать ИИ экологичнее?
Да, за счёт лёгких моделей, оптимизации алгоритмов и применения возобновляемой энергии.
Миф: запрос к чат-боту почти ничего не стоит.
Правда: миллиарды запросов ежедневно складываются в огромные энергозатраты.
Миф: проблема решится новыми дата-центрами.
Правда: без алгоритмических улучшений потребление будет расти.
Миф: чем больше модель, тем всегда лучше результат.
Правда: эффективность можно достичь и через оптимизацию, а не только через рост параметров.
С XIX века человечество сталкивается с одним и тем же закономерным результатом: каждое повышение эффективности ведёт к росту потребления. Сегодня этот принцип проявляется в искусственном интеллекте. Если паровые машины подталкивали к росту добычи угля, то алгоритмы ИИ подталкивают к росту запросов и вычислений. Будущее технологий будет зависеть не только от инженеров, но и от того, как ответственно мы будем их использовать.