Нейросеть, аналогичная DeepSeek, была создана при бюджете в 30 долларов
Ученые из Калифорнийского университета в Беркли создали искусственный интеллект «Tiny Zero», функционально аналогичный модели DeepSeek R1, но с гораздо меньшими затратами. Эта новость поднимает вопрос о доступности передовых AI-систем и необходимости огромных бюджетов. Tiny Zero уступает по размеру модели DeepSeek R1-Zero, работающей с 671 миллиардом параметров, но предлагает все ее основные функции. Подход исследователей основан на принципе «обучения с подкреплением», при котором ИИ бойко совершенствует свои ответы, начиная со случайно сформированных предположений.
Открытие «Tiny Zero» стало неожиданностью для многих, ставя под сомнение общепринятое мнение о необходимости мощных центров обработки данных, дорогих графических процессоров и миллиардов долларов для крупных прорывов в ИИ. DeepSeek уже заявила, что обучение ее основной модели стоило всего несколько миллионов долларов, что меньше, чем у многих американских компаний. По словам разработчиков «Tiny Zero», в уменьшенном масштабе это можно сделать всего за каких-то 30 долларов.
Однако критики отмечают, что заявленные DeepSeek показатели доступности могут быть неполными. «Tiny Zero» показывает, что продвинутое обучение с подкреплением возможно с ограниченным бюджетом, но не решает все задачи, которые может выполнять более крупная система DeepSeek. TinyZero скорее можно рассматривать как упрощенный экспериментальный образец, чем полноценного конкурента. Этот пример указывает на изменения в сфере ИИ. Если разработчики с открытым исходным кодом могут воспроизводить сложные функции с ограниченными ресурсами, это ставит под вопрос необходимость огромных инвестиций от гигантов, таких как OpenAI, Google или Microsoft. Таким образом, разговор о доступном и мощном ИИ только начинается.
DeepSeek и ChatGPT: чем отличаются эти ИИ?