Postępy firmy Apple w dziedzinie sztucznej inteligencji na urządzeniach z otwartymi modelami językowymi

Apple wzbogaca zestawy narzędzi AI modelami wykonania lokalnego

Apple niedawno zaprezentował zestaw nowych modeli sztucznej inteligencji (AI) o nazwie OpenELMs, zbiór ośmiu zróżnicowanych modeli zaprojektowanych do wykonania na urządzeniu. Ta innowacja jest oczekiwanym krokiem w kierunku potencjalnej integracji AI w systemie iOS 18.

OpenELMs (Open-source Efficient Language Models) są w pełni otwarte źródło, dostępne na platformie społecznościowej Hugging Face Hub, dedykowanej entuzjastom i programistom AI. Apple wydał również whitepaper szczegółowo opisujący te nowe modele.

Cztery z modeli OpenELM zostały wstępnie przeszkolone przy użyciu CoreNet (dawniej znanych jako CVNets), ogromnej biblioteki danych wykorzystywanej do szkolenia modeli językowych AI. Pozostałe cztery zostały dalej dostrojone z konkretnymi wskazówkami od Apple. Te dostrojenia poprawiają modele AI, aby lepiej reagowały na określone zapytania.

Modele te występują w czterech rozmiarach, określonych przez liczbę parametrów, które posiadają (270 milionów, 450 milionów, 1,1 miliarda i 3 miliardów parametrów), co sprawia, że są one mniejsze od wielu modeli wysokowydajnościowych, które zazwyczaj mają około 7 miliardów parametrów. Dostępne są zarówno wersje wstępnie przeszkolone, jak i dostrojone w każdym rozmiarze.

W tym, co jest uważane za nietypowy krok dla zazwyczaj zamkniętego ekosystemu oprogramowania Apple, firma postanowiła udostępnić OpenELMs jako oprogramowanie open-source. Apple deklaruje, że chce wspierać i wzbogacać badania nad AI w domenie publicznej. Wstępne szkolenie przeprowadzono na 1,8 biliona tokenów z publicznych zbiorów danych, w tym treści z Reddit, Wikipedii i arXiv.org.

Zaangażowanie Apple w AI było znaczące wśród zacieśniającej się konkurencji ze smartfonami i laptopami z układami zasilanymi przez AI, takimi jak Tensor od Google’a i najnowszy chip AI od Qualcomm wykorzystany w urządzeniach Surface.

Apple ma nadzieję, że dzięki udostępnieniu publicznie swoich modeli AI na urządzenia, ambitni programiści pomogą w ich udoskonalaniu, co może być kluczowe dla przyszłych integracji narzędzi AI iOS i macOS. W międzyczasie istniejące urządzenia Apple są wypełnione możliwościami AI, zasilanymi przez Apple Neural Engine w ich chipach serii A i M, umożliwiającymi funkcje takie jak Face ID i Animoji. Ponadto, przyszłe ulepszenia w chipie M4 w Macu mają zaprezentować nowe zdolności przetwarzania związane z AI, istotne dla rosnącego wykorzystania narzędzi uczenia maszynowego w profesjonalnym oprogramowaniu.

Kluczowe pytania i odpowiedzi:

1. Jakie jest znaczenie otwartoźródłowości OpenELMs firmy Apple?
Inicjatywy open-source, jak OpenELMs, pozwalają programistom i badaczom spoza Apple na dostęp, modyfikację i innowacje na podstawie modeli językowych firmy Apple. To może prowadzić do szerszej współpracy w społeczności AI, potencjalnie przyspieszając postęp w tej dziedzinie. Dodatkowo to prezentuje transparentność w rozwoju AI, zapraszając na krytykę i usprawnienia ze strony szerszej społeczności.

2. Dlaczego AI na urządzeniu jest istotne?
AI na urządzeniach oferuje wiele zalet, takich jak zwiększona prywatność, ponieważ dane nie muszą być przesyłane do chmury do przetwarzania. Oprócz tego pozwala na niższe opóźnienia, ponieważ obliczenia są przeprowadzane lokalnie, co może zmniejszyć zapotrzebowanie na pasmo. Co więcej, AI na urządzeniach nie jest zależne od ciągłego połączenia internetowego, umożliwiając funkcjonowanie nawet w trybie offline.

3. Jak otwarcie tych modeli AI może wpłynąć na branżę technologiczną?
Dzięki udostępnieniu publicznemu modeli AI, Apple może ustanowić precedens dla innych gigantów technologicznych do naśladowania, co potencjalnie skutkowałoby bardziej otwartym ekosystemem, w którym innowacje są dzielone zamiast trzymane za zamkniętymi drzwiami. To mogłoby prowadzić do usług AI wyższej jakości i aplikacji oraz poszerzyć zakres urządzeń zdolnych do zaawansowanych obliczeń AI.

Główne wyzwania i kontrowersje:

Rozwój modeli AI na urządzenia niesie ze sobą wyzwanie związane z równoważeniem wydajności i ograniczeń zasobów. Mniejsze modele, chociaż konieczne dla urządzeń mobilnych o ograniczonej mocy obliczeniowej i pojemności, mogą nie oferować tych samych możliwości co większe, chmurowe modele.

Prywatność danych może budzić obawy. Otwieranie na potrzeby trainingowe modeli AI może rodzić pytania o źródła tych danych i czy zostały one uzyskane etycznie i odpowiednio zanonimizowane.

Jakość odpowiedzi generowanych przez AI to inny obszar potencjalnej kontrowersji. Mniejsze modele mogą nie być tak dokładne lub skuteczne jak większe, co może skutkować mniej satysfakcjonującymi doświadczeniami użytkownika lub stronniczymi wynikami.

Zalety i wady:

Zalety:

Prywatność: Przetwarzanie na urządzeniu zachowuje dane użytkownika na nim, co jest bardziej bezpieczne i prywatne.
Wydajność: Lokalne obliczenia eliminują konieczność opóźnień sieciowych, prowadząc do szybszej reakcji.
Dostępność: Funkcje AI mogą być używane w trybie offline.
Wydajność energetyczna: Lokalne zadania AI mogą być zoptymalizowane, by zużywać mniej energii w porównaniu z ciągłym przesyłaniem danych do chmury.

Wady:

Ograniczenia zasobów: Urządzenia mają ograniczoną moc obliczeniową i przestrzeń w porównaniu z chmurą, co może ograniczyć złożoność i zdolności modeli AI.
Wyzwania w rozwoju: Budowanie efektywnych modeli AI, które pasują do ograniczeń urządzenia, wymaga znacznej wiedzy technicznej i innowacji.
Dostępność danych: Modele muszą być wystarczająco ogólne, aby obsłużyć szeroką gamę zadań, nie mając przy tym korzyści z dostępu do dużych baz danych w chmurze w czasie rzeczywistym.

Aby uzyskać więcej informacji na temat powiązanych tematów, możesz odwiedzić następujące linki:
Apple
Hugging Face

Privacy policy
Contact