Il nuovo sistema AI di Apple può “vedere” e potrebbe rappresentare un punto di svolta per Siri

Apple si sta tuffando per prima nei sistemi basati sull'intelligenza artificiale e, secondo i rapporti che citano i ricercatori Apple dietro questi nuovi sistemi, uno è specificamente progettato per affrontare i prodotti GPT di OpenAI.

Apri Galleria 2

VISUALIZZA GALLERIA – 2 IMMAGINI

I rapporti indicano che Apple sta sviluppando il sistema ReaLM, che sta per “Risoluzione di riferimento come modellazione del linguaggio“, un nuovo sistema progettato per rendere l'interazione con l'intelligenza artificiale molto più naturale. Inoltre, ReaLM è in grado di “Vedere” contenuto sullo schermo, con i ricercatori dietro il progetto che affermano che supera GPT-4 di OpenAI, la tecnologia alla base di ChatGPT, nel determinare il contesto e interpretare le espressioni linguistiche.

Inoltre, i ricercatori dietro il progetto ritengono che ReaLM sia “una scelta ideale” per un sistema di decifrazione del contesto che sarebbe presente “sul dispositivo senza compromettere le prestazioni“. Quindi, come funzionerebbe? Immagina di chiedere a Siri di mostrarti un elenco di generi alimentari locali nella tua posizione. Dopo che Siri avrà completato la visualizzazione dell'elenco, potrai chiederle “Chiama quello in basso.” Con l'implementazione di ReaLM Siri sarebbe in grado di identificare l'opzione in basso e procedere a chiamarla. I ricercatori Apple affermano che ReaLM ha sovraperformato GPT-4 in quest'area di decifrazione del contesto.

Advertisement

Il linguaggio umano tipicamente contiene riferimenti ambigui come “loro” o “quello”, il cui significato è ovvio (per gli altri esseri umani) dato il contesto,” i ricercatori ha scritto sulle capacità di ReaLM. “Essere in grado di comprendere il contesto, inclusi riferimenti come questi, è essenziale per un assistente conversazionale che mira a consentire a un utente di comunicare in modo naturale le proprie esigenze a un agente o di conversare con esso.

Advertisement