Une IA Apple surpassant GPT-4 ?

Les chercheurs de l’équipe IA Apple ont dévoilé un modèle innovant intégré directement dans l’iPhone, promettant des performances qui surpassent même celles du célèbre GPT-4.

Au fil des années, Siri, l’assistant vocal d’Apple, a souvent été critiqué pour ses lacunes en termes de précision et de réactivité inégale. Malgré cela, la société n’a jamais cessé d’investir dans l’amélioration de son assistant vocal. Récemment, Siri a fait un pas en avant avec une fonctionnalité expérimentale permettant de décrire les images reçues dans les messages, bien que les résultats aient été mitigés.

Cependant, l’IA Apple a des ambitions bien plus vastes. Un document de recherche révèle une initiative révolutionnaire qui pourrait transformer l’interaction entre l’utilisateur et son assistant vocal, allant même jusqu’à surpasser les capacités du puissant GPT-4.

Ce nouveau modèle, baptisé ReALM (Reference Resolution As Language Modeling), va au-delà des simples interactions verbales en tenant compte de l’environnement visuel de l’utilisateur et de ses activités en cours. ReALM catégorise les entités en trois types : celles affichées à l’écran, celles impliquées dans la conversation en cours et celles en arrière-plan, toutes essentielles pour une expérience utilisateur enrichie.

Des tests comparatifs ont démontré que ReALM surpasse non seulement GPT-3.5 et GPT-4 d’OpenAI, mais offre également des performances supérieures à ces systèmes, même avec moins de paramètres. Cette capacité à fonctionner efficacement sur l’appareil lui confère un avantage considérable, garantissant une expérience utilisateur fluide et réactive.

Les chercheurs d’Apple sont optimistes quant aux améliorations à venir, avec des anticipations élevées pour le lancement d’iOS 18 lors de la WWDC 2024 le 10 juin prochain.