Компания DeepSeek представила новые модели ИИ с логическим мышлением
Разработчик искусственного интеллекта DeepSeek представил две новые модели: DeepSeek-V3.2 и более продвинутую версию DeepSeek-V3.2-Speciale. Они основаны на новой методике обучения, которая сочетает надежные протоколы с масштабными вычислениями. Модели способны обрабатывать большие объемы текста без потери в логике и производительности.
Авторы отметили, что версия V3.2-Speciale завоевала золотые медали на четырех престижных международных соревнованиях: Международной математической олимпиаде 2025 года, Международной олимпиаде по информатике, Всемирной конференции ICPC Финал и Китайской математической олимпиаде. Эта модель продемонстрировала способность к логическому мышлению и не уступает, а в чем-то даже превосходит западные аналоги, такие как ChatGPT.
Модели представили в свободном доступе по лицензии MIT с открытым исходным кодом. Известно, что в основе новой версии лежит DeepSeek Sparse Attention, или DSA — новое архитектурное достижение, которое значительно снижает вычислительную нагрузку для ИИ при работе с длинными документами и сложными задачами.
Это «молниеносный индексатор», который идентифицирует только самые важные части контекста для каждого запроса и игнорирует остальные. Благодаря этому затраты на вычисления удалось снизить на 70%, сообщает VB Daily.
Ранее стало известно, что в Дубае работает первый в мире ИИ-повар. Он не готовил сам, но участвует в разработке рецептов. В меню его ресторана входит, в частности, тартар из динозавра. Блюдо призвано воскресить вкус вымерших рептилий.
