Apple a utilisé les puces de Google pour entraîner son IA

Il s'avère que l'entrée tardive d'Apple dans le jeu de l'IA, alias Apple Intelligence, a été au moins partiellement formée à l'aide des puces Google.

Dans sa dernière recherche sur l'apprentissage automatique papier (ton CNBC), intitulé Apple Intelligence Foundation Language Models, Apple a révélé une partie du travail consacré au développement de ses prochains outils d'IA. Ce qui est intéressant, c'est que plutôt que de développer et d'utiliser son propre silicium personnalisé pour son IA, ou même de se tourner vers le leader du marché Nvidia, Apple s'est attaqué à son ennemi séculaire, Google.

Coupant le discours académique aride, le document révèle essentiellement qu'Apple a loué tout un tas de « clusters Cloud TPU » – avec TPU représentant l'unité de traitement tenseur de Google – dans sa formation en IA. Il s'agissait de 2 048 puces TPUv5p pour son modèle intégré et de 8 192 puces TPUv4 pour son serveur Apple Foundation Model.

Si vous étiez espiègle, vous pourriez dire que la fonctionnalité clé de la famille iPhone 16 – Apple Intelligence – fonctionnera sur la puissance Pixel, bien que le propre silicium d'Apple entrera en jeu lorsqu'il s'agira d'exécuter son modèle d'IA pré-entraîné.

Apple Intelligence est récemment arrivé dans la version bêta d'iOS 18.1, ce qui signifie que vous pouvez avoir un avant-goût du travail d'IA de l'entreprise avant le déploiement complet en septembre. Cependant, vous aurez besoin d’au moins un iPhone 15 Pro ou un iPad alimenté par M1 pour l’exécuter.

Une fois la version bêta téléchargée, vous pourrez tester les nouveaux outils d'écriture d'IA d'Apple et une version repensée de Siri, dotée d'un style plus personnel. D'autres fonctionnalités Apple Intelligence, telles que Image Playground et la génération d'images Genmoji, viendront plus tard.

×