Google запустила AI Studio – платформу для быстрой разработки ИИ-приложений и чат-ботов. В студии доступна модель Gemini Pro. А еще Google DeepMind выпустила новую версию модели для генерации изображений Imagen 2. Генератор Imagen 2 рисует неплохие иллюстрации по фрагментам литературных текстов, качественно имитирует различные стили живописи и хорошо справляется с фотореализмом. Все изображения маркируются с помощью невидимой метки SynthID. |
Imagen 2 может генерировать фотореалистичные изображения |
ChatGPT-4 прошел экзамен по клинической неврологии с результатом 85%. Студентам-медикам для получения зачета по этой дисциплине обычно достаточно 70% правильных ответов, а средний человеческий результат составляет 73.8%. Премиум-подписчики X получили доступ к чат-боту Grok и не были впечатлены его способностями, которые примерно соответствуют уровню GPT-3.5. Grok, по сравнению с GPT-3.5: - Работает заметно медленнее.
- Отличается большей любезностью.
- Не отказывается отвечать на каверзные вопросы.
- Имеет доступ к твитам в реальном времени (хотя часто ссылается на устаревшие посты).
PC Guide опубликовал подробный обзор возможностей Grok – там есть результаты тестирования чат-бота Маска в сравнении с другими популярными LLM. |
Показатели Grok по результатам тестов, проведенных разработчиками xAI |
На прошлой неделе Google признала, что возможности Gemini в эффектной видеопрезентации были значительно приукрашены. Рядовые пользователи еще не скоро смогут оценить Gemini Ultra, но у разработчиков Microsoft такая возможность есть: они опубликовали результаты тестов, в соответствии с которыми Gemini Ultra все-таки уступает GPT-4. |
ChatGPT-4 продолжает оставаться самым сильным ИИ |
Компания Figure показала лаборатории, в которых создаются роботы-гуманоиды. |
Agility Robotics готова к запуску первой в мире фабрики по массовому производству роботов Digit, которые успешно прошли тестирование на испытательном складе Amazon. |
Digit не такой броский, как Optimus Gen 2, зато готов к массовому производству |
Tesla представила очередной прототип Optimus Gen 2. | Медиахолдинг Arena Group уволил Росса Левинсона с поста генерального директора журнала Sports Illustrated после скандала с публикацией статей, сгенерированных ИИ. Это не первая драма, разыгравшаяся после публикации сгенерированных статей (подобные скандалы уже случались с несколькими новостными агентствами и Microsoft), но это первое увольнение руководителя такого ранга. Stability AI выпустила компактную, нетребовательную к железу модель для генерации текста Zephyr 3B, и приступила к созданию очередного суперкомпьютера в сотрудничестве с Intel. |
Снижение уровня галлюцинаций |
Хотя Андрей Карпаты и уверяет, что галлюцинации – это не баг, а фича, решение проблемы галлюцинаций в LLM – когда модель генерирует убедительную, но фактически неточную информацию – очень важно для практического применения ИИ в областях, в которых ошибки могут дорого обойтись. В статье «Повышение фактической точности больших языковых моделей» авторы изложили свой опыт использования подхода прямой оптимизации предпочтений (DPO). DPO проще в реализации, чем RLHF (метод обучения с подкреплением на основе человеческих отзывов), и дает отличные результаты: галлюцинации модели Llama-2* 7В снизились на 58% по сравнению с оригиналом. В качестве альтернативы проверке людьми авторы предлагают два полностью автоматизированных метода оценки правдивости ответов LLM: - Основанный на справочных материалах (статьи Википедии).
- Без использования внешних справочных материалов. Исходные утверждения, полученные из ответов модели, преобразуются в вопросы с помощью GPT-3.5. Эти вопросы используются как запросы для модели Llama-1* с высокой температурой ответов. Модель генерирует множество разных ответов на один и тот же вопрос, и частота наиболее распространенного ответа используется как оценка правдивости исходного утверждения. Эти оценки затем используются для генерации данных о предпочтениях и дообучения моделей методом DPO.
|
Снижение галлюцинаций у Llama-2* |
Создание сравнительно небольших языковых моделей (до 15 млрд параметров), которые могут сравниться по возможностям с крупными LLM (или даже превзойти их) – один из главных ИИ-трендов. Авторы эксперимента по повышению способностей к рассуждению у небольших языковых моделей предложили новый подход – объяснительное обучение (explanation tuning), суть которого в использовании специально подготовленных синтетических данных для тренировки LLM: - Из большой LLM («учителя») извлекаются ответы на специально сформулированные запросы вместе с объяснениями этих ответов.
- Малая LLM («ученик») обучается на этих парах запрос-ответ, не видя самих запросов.
Так малая модель обучается рассуждать и решать задачи теми способами, которые продемонстрировала бóльшая модель. При этом она выбирает наиболее подходящую для каждой задачи стратегию решения. Полученная таким образом модель Orca-2-13B продемонстрировала значительное (на 28-48%) превосходство по сравнению с другими моделями такого же размера в тестах на рассуждения и понимание. Она также не уступает или превосходит гораздо большие модели в 5-10 раз. |
Orca-2 после обучения превзошла многие крупные LLM |
RAG – это технология, которая использует поиск по базе знаний и генерацию текста для автоматического создания ответов на запросы пользователей. Гайд «12 рекомендаций по тонкой настройке RAG-приложений» расскажет, как оптимизировать и настроить RAG-систему так, чтобы она работала максимально точно и быстро. На этапе подготовки данных для RAG важно: - хорошо очистить данные от мусора;
- разбить большие документы на небольшие логические куски (чанки);
- подобрать оптимальную модель для преобразования текста в векторы (эмбеддинги);
- добавить метаданные, чтобы легче фильтровать результаты;
- создать отдельные индексы для разных типов документов.
При использовании RAG надо оптимизировать: - формулировку запросов пользователей;
- настройки поиска в индексе (число результатов, вид поиска – семантический или гибридный);
- логику объединения найденных фрагментов текста в единый контекст;
- модели переранжировки результатов поиска;
- настройки языковых моделей для генерации текста;
- формулировки подсказок для языковой модели.
|
Обучение автономных агентов |
Разработчики Meta* опубликовали библиотеку Pearl* для обучения агентов с подкреплением. Pearl* упрощает создание ИИ-агентов для игр, приложений, роботов и других систем, которым нужно самостоятельно обучаться. Pearl* может: - Гибко комбинировать разные алгоритмы и настройки для решения конкретных задач.
- Обучать агентов действовать в сложных, быстроменяющихся средах.
- Делать это обучение безопасным и стабильным.
- Использовать накопленные данные для ускорения обучения и постоянного улучшения возможностей агентов.
|
Генерация фуллстек-приложений |
Full Stack AI – опенсорсный инструмент для генерации фуллстек-приложений на базе Next.js. Full Stack AI генерирует UI на TypeScript and Tailwind, автоматически создает CRUD API, подключает базу данных, систему авторизации и обработку платежей. |
В лонгриде «Боты в ChatGPT: где найти готовых и как настроить ассистента под свои задачи» подробно рассказано, как сделать собственного бота на платформе OpenAI, а еще там есть большая подборка ссылок на всевозможных готовых ботов. Статистику популярности кастомных GPTs можно посмотреть в репозитории gpt-stats. Среди самых популярных: - Grimoire – мощный помощник программиста.
- ResearchGPT – ассистент для проведения исследований и написания научных статей, обученный на 200 млн публикаций.
- DesignerGPT – делает любые сайты.
- Data Analysis – извлекает данные из любых файлов, анализирует и визуализирует результаты.
- ChatGPT Classic – последняя версия GPT-4, которая не ленится и не хандрит.
Resume.co – поможет написать идеальное резюме. В базе – более 200 шаблонов, подготовленных HR-специалистами с учетом всех ATS-фильтров. ИИ допишет выбранный шаблон, используя ваши данные. Похожий сервис – ResumeBuild. Buenoverse – создает виртуальные 2D-миры. |
Video to Blog – пишет посты для блога на основе YouTube видео. Animaker – делает анимированные ролики на темы бизнеса, HR, саморазвития и т. п. Beautiful – создает эффектные анимированные презентации. |
Примеры презентаций Beautiful.ai |
Elsa Speak – ИИ-приложение для улучшения разговорных навыков и произношения (американский английский). Kards AI – генерирует карточки для изучения языков и подготовки к экзаменам. Vizard – превращает длинные видео в короткие клипы для соцсетей. На этом все, увидимся через неделю! *Организация Meta и все ее продукты, включая Llama-1, Llama-2 и Pearl, признаны экстремистскими и запрещены на территории РФ. |
|
|
Вы получили это письмо, потому что подписались на нашу рассылку. Если вы больше не хотите получать наши письма, нажмите здесь.
|
|
|
|