@skobkin @Parabrando ds r1 стоит намного, намного дешевле о1, с которой она конкурирует, не с чатгопотой. Она мощнее чем чатгопота по тестам, там 685b параметров (можно скачать на хагинфейсе), такие модели можно запустить на трех макбуках с 128гб памяти, будет стоить правда около 2млн рублей...не знаю как на видяхах. Капитализация вероятно не вернется к многим компаниям в связи с тем, что этот случай показывает, что они не обладают чем-то уникальным.
@3draven @Parabrando
> стоит намного, намного дешевле о1
Процитирую Бобука по этому поводу:
> В NYT статья о том, что DeepSeek внезапно опроверг типичное мнение "больше значит лучше", потому что смог "всего за 6 миллионов построить модель, конкурирующую с мировыми топами". На деле подсчет стоимости обучения в 6 млн — это чья-то неудачная шутка. В этой сумме не учтена ни цена видеокарт, ни цена разработчиков, ни тот факт, что с первого раза получить такую модель невозможно. А если посчитать всё сразу, то получится, что DeepSeek вложил в обучение модели вполне сравнимо с вложениями фейсбук в LLama.
> Она мощнее чем чатгопота по тестам
По тестам от производителя или со стороны?
В LMArena ChatGPT выше в "среднем", в математике R1 отстаёт от o1 достаточно сильно, в кодинге отстаёт, в сложных промптах отстаёт. Даже в китайском (!) отстаёт.
Да, она достаточно близка чтобы показать, что OpenAI - не единственный игрок в reasoning. И это - хорошо. Впрочем, до этого уже Alibaba публиковали свою QwQ.
Короче говоря, стоит упырить мел немного и радоваться развитию индустрии, но не ударяться в дезинфу.
@skobkin @Parabrando про дешевле я говорил о стоимости сервиса, а не обучения. Доступ к апи дешевле. Сколько стоит обучить, если правда 6млн когда база готова (спецы и железо), то значит они еще десять сделают но уже дешево. Что до тестов, они в случае с нейронками все плюс минус, сойдусь на сопоставимости, это не меняет моих выводов. Тесты с нейронками дело неточное, почему не верить тестам авторов? Нипочему, возьмите перпендикулярные, на которые о1 таскали и она победит.
> Доступ к апи дешевле
Это хорошо. Но это может быть обычным демпингом. По стоимости нужно смотреть на долгосрочную перспективу.
Пока что точно понятно, что у них вычислительно дешевле инференс. И это - хорошо. Другие (включая OpenAI) у них научатся.
> то значит они еще десять сделают но уже дешево
Это работает и для всех остальных. LLaMA тоже достаточно быстро новые поколения клепает, например.
> сойдусь на сопоставимости
Сойдись. Только ты себя обманешь. У R1 заметно менее полированный результат. Больше вредных галлюцинаций, меньше функциональность в сравнении с LLaMA или ChatGPT где есть всякие интеграции инструментария и мультимодальности.
Произошёл "вау"-эффект и грамотный пиар. За это их тоже можно похвалить.
И отдельно стоит похвалить за то, что выложили открытую версию.
> Тесты с нейронками дело неточное, почему не верить тестам авторов?
@skobkin @Parabrando ты сейчас споришь с моим утверждением, что лидеры потеряли эксклюзивность? Или с чем? :) Апи дешевле это факт, тестирование нейронок проблема настолько большая, что народ скрытые тесты стал делать с неразглашением никому, а недавно был минискандал с финансированием тестировщиков от опенаи...как раз конфликт интересов. Так что про тестирование я сказал тоже факт.
@skobkin @Parabrando ну, согласились.