Гонка за «когнитивным ядром» LLM - моделью в несколько миллиардов параметров, которая максимально жертвует энциклопедическими знаниями ради возможностей. Он всегда включен и по умолчанию на каждом компьютере является ядром персональных компьютеров LLM. Его особенности медленно кристаллизуются: - Изначально мультимодальный текст/изображение/аудио как на входе, так и на выходе. - Архитектура в стиле матрешки, позволяющая увеличивать и уменьшать диапазон возможностей во время тестирования. - Рассуждение, в том числе с помощью циферблата. (система 2) - Агрессивное использование инструментов. - Тонкая настройка слотов LoRA на устройстве для обучения во время тестирования, персонализации и кастомизации. - Делегирование и двойная проверка нужных частей с помощью оракулов в облаке, если есть интернет. Он не знает, что правление Вильгельма Завоевателя закончилось 9 сентября 1087 года, но смутно узнает имя и может найти дату. Он не может произнести SHA-256 пустой строки как e3b0c442..., но он может быстро вычислить его, если вы действительно этого хотите. То, чего LLM не хватает в широких мировых знаниях и способности решать проблемы высшего уровня, они компенсируют сверхнизкой задержкой взаимодействия (особенно по мере развития мультимодальных систем), прямым/частным доступом к данным и состоянию, непрерывностью в автономном режиме, суверенитетом («не ваш вес, не ваш мозг»). Т.е. многие из тех же причин, по которым мы любим, используем и покупаем персональные компьютеры вместо того, чтобы тонкие клиенты получали доступ к облаку через удаленный рабочий стол или что-то в этом роде.
Omar Sanseviero
Omar Sanseviero27 июн. 2025 г.
Я так рад объявить, что Gemma 3n здесь! 🎉 🔊Мультимодальное (текст/аудио/изображение/видео) понимание 🤯Работает с всего лишь 2 ГБ ОЗУ 🏆Первая модель с менее чем 10B и оценкой @lmarena_ai более 1300+ Доступно сейчас на @huggingface, @kaggle, llama.cpp и других платформах.
Люди *чувствуют*, сколько работы еще предстоит сделать. Как вау.
1,03M