BR>
Apple продовжує рушати межі штучного інтелекту (ШІ), і недавно опублікований документ їх дослідницьких команд розкриває роботу з MM1, набором мульти-модальних великих мовних моделей.
Цей документ, під назвою “MM1: Методи, аналіз та інсайти з попередньої підготовки мульти-модальних ВММ”, досліджує концепцію побудови потужних мульти-модальних великих мовних моделей (МВММ) та підкреслює важливість попередньої підготовки за участю різноманітних даних, включаючи набори даних текст-зображення, чергуючі зображення-текст і лише тексти. Цей підхід дозволяє Apple досягати результатів state-of-the-art few-shot на різних бенчмарках, перевершуючи інші техніки попередньої підготовки.
Згідно з сутью, мульти-модальні великі мовні моделі використовують потенціал кількох наборів даних, зокрема тексту, зображень і, можливо, аудіо та відео, щоб створити більш розвинуті та точні робочі процеси для застосувань ШІ.
З можливістю інтерпретувати інформацію за допомогою вражаючих 30 мільярдів параметрів, MM1 демонструє конкурентоздатну продуктивність після професійного налаштування на визначених бенчмарках мульти-модальників. Дослідники компанії Apple вважають, що МВММ є наступним фронтом у базових моделях, пропонуючи більш вищі можливості порівняно з великими мовними моделями, які справлялися з останніми проривами в технологіях ШІ.
Незважаючи на обіцяючі розробки, MM1 залишається проектом за закритими дверима, що породжує неуспокоєність щодо того, чи матиме він коли-небудь форму споживачського продукту. Однак знання, здобуті при MM1, все ще можуть вплинути на майбутні застосування ШІ.
Часті запитання (FAQ):
The source of the article is from the blog scimag.news