Хотя искусственный интеллект поднимает множество юридических и этических вопросов, другому тревожному аспекту технологии — ее потенциальному воздействию на окружающую среду — уделяется мало внимания. Ученый-компьютерщик Университета Коруньи Карлос Гомес-Родригес отметил, что обучение больших языковых моделей настолько ресурсоемко, что это под силу только крупным технологическим компаниям. Об этом сообщает Gismeteo.
К сожалению, ни Microsoft, ни Google не раскрыли, сколько вычислительной мощности требуется их ИИ. Однако Wired отмечает, что на обучение модели OpenAI GPT-3 расходуется 1 287 мегаватт-часов — и это помимо того, что она будет обслуживать миллиарды пользователей.
Мартин Бушар, соучредитель QScale — новой модели — отметил, что повышенные вычислительные требования к одному запросу — в четыре-пять раз больше, чем у старых поисковых систем — значительно превышают доступные мощности сервера.
Ранее «ЭкоПравда» сообщала, что в Аргентине выловили огромного речного ската.
Археологи и палеонтологи их провинции Цзянси совместно с учеными из Университета Юньнань пронализировали останки уникального…
"Роскосмос" опубликовал в своем Telegram-канале снимок шторма, обрушившегося на Москву и Подмосковье. Снимок был сделан…
Башкирские ученые недавно сделали значительное открытие, расшифровав загадочные знаки, найденные в пещерах Шульган-Таш. Обсуждение результатов…
Международная группа ученых завершила исследование, в котором они проанализировали данные о более чем 100 миллионах…
Ученые из Института археологии и этнографии СО РАН описали украшения, найденные в Денисовой пещере на…
В Сибирском государственном медицинском университете (СибГМУ) активно разрабатывается новаторская технология под названием "орган-на-чипе", назначение которой…