Plan sztucznej inteligencji na urządzeniach iOS 18 i iPhone 16 staje się bardziej przejrzysty

Krążą pogłoski, że Apple zastosuje inne podejście do wdrażania generatywnej sztucznej inteligencji w systemie iOS 18 i modelach iPhone'a nowej generacji, przechowując całe przetwarzanie na urządzeniu, zamiast wysyłać je do chmury i z powrotem w celu uzyskania odpowiedzi.

Raporty te wydają się dobrze uzasadnione, biorąc pod uwagę solidne podejście Apple do prywatności użytkowników i dotychczasowej formy. Przechowywanie żądań wyłącznie lokalnie będzie prawdopodobnie szybsze i bezpieczniejsze niż wysyłanie informacji do stratosfery i z powrotem.

Advertisement

Nie jest jednak jasne, czy modele działające na urządzeniach będą miały dostęp do tego samego bogactwa wiedzy, co modele korzystające z chmury, takie jak Gemini Google i ChatGPT OpenAI. Na przykład Samsung w swoim Galaxy AI wykorzystuje połączenie wydajności na urządzeniu i przetwarzania w chmurze. Krążą pogłoski, że Apple rozważa zawarcie umowy z Google, aby wypełnić luki, wprowadzając Gemini na iPhone'y.

Nie jest również jasne, czy korzystanie z modelu wbudowanego w urządzenie ograniczy nowe funkcje do urządzeń iPhone nowej generacji, a nie do istniejących urządzeń.

Zdobądź „jak nowy” iPhone 12 Pro Max za jedyne 449 GBP

Możesz teraz kupić odnowionego iPhone’a 12 Pro Max „jak nowy” za jedyne 449 funtów, czyli cenę zdecydowanie ze średniej półki.

Advertisement

  • GiffGaff
  • Stan po odnowieniu „jak nowy”.
  • Teraz 449 funtów

Zobacz ofertę

Teraz jest trochę więcej dowodów sugerujących, że właśnie tę drogę Apple będzie chciał obrać. W tym tygodniu firma Apple wypuściła kilka dużych modeli językowych typu open source, które, jak się domyślacie, zostały zbudowane z myślą o przetwarzaniu na urządzeniu.

Jak MacPlotki raportów, firma opublikowała biały papier w związku z uruchomieniem ośmiu OpenELM (Open-source Efficient Language Models) w społeczności AI w aplikacji Hugging Face.

Apple uważa, że ​​wydajność jest porównywalna z innymi LLM, które korzystają z pomocy chmury po odbyciu mniejszego szkolenia. Ma nadzieję, że programiści zaangażują się w prace nad wiarygodnością i wiarygodnością wyników.

Advertisement

W artykule wyjaśniono: „W tym celu udostępniamy OpenELM, najnowocześniejszy model otwartego języka. OpenELM wykorzystuje strategię skalowania warstwowego, aby efektywnie przydzielać parametry w każdej warstwie modelu transformatora, co prowadzi do zwiększonej dokładności. Na przykład przy budżecie parametrów wynoszącym około miliarda parametrów OpenELM wykazuje poprawę dokładności o 2,36% w porównaniu do OLMo, wymagając jednocześnie 2 razy mniej tokenów przedtreningowych.

„Odbiegając od wcześniejszych praktyk, które zapewniały jedynie wagi modeli i kod wnioskowania oraz wstępne uczenie na prywatnych zbiorach danych, nasza wersja zawiera kompletne ramy do uczenia i ewaluacji modelu językowego na publicznie dostępnych zbiorach danych, w tym dzienniki szkoleniowe, wiele punktów kontrolnych i wstępne -konfiguracje szkoleniowe. Udostępniamy także kod do konwersji modeli do biblioteki MLX w celu wnioskowania i dostrajania na urządzeniach Apple. Celem tej kompleksowej publikacji jest wzmocnienie pozycji społeczności otwartych badaczy, torując drogę przyszłym wysiłkom w zakresie otwartych badań.”

Czy wiążesz więc duże nadzieje z zagłębieniem się Apple w generatywną sztuczną inteligencję w iOS 18 i przyszłych iPhone'ach? Daj nam znać @trustedreviews na Twitterze.

Advertisement