Jaap Arriens | Nuphoto | Getty Images
Une fonctionnalité d’intelligence artificielle sur les iPhones génère de fausses alertes de nouvelles, attisant les inquiétudes quant à la capacité de la technologie à diffuser des informations erronées.
La semaine dernière, une fonctionnalité récemment lancée par Pomme qui résume les notifications des utilisateurs à l’aide de l’IA, a diffusé des notifications de l’application BBC News résumées de manière inexacte sur l’histoire du diffuseur concernant la demi-finale du Championnat du monde de fléchettes PDC, affirmant à tort que le joueur de fléchettes britannique Luke Littler avait remporté le championnat.
L’incident s’est produit un jour avant la finale du tournoi, que Littler a remporté.
Puis, quelques heures seulement après cet incident, une notification distincte générée par Apple Intelligence, le système d’IA du géant de la technologie, a faussement affirmé que la légende du tennis Rafael Nadal s’était révélée gay.
La BBC tente depuis environ un mois de convaincre Apple de résoudre le problème. La chaîne publique britannique s’est plaint à Apple en décembre après que sa fonction d’IA ait généré un faux titre suggérant que Luigi Mangione, l’homme arrêté à la suite du meurtre du PDG de la société d’assurance maladie UnitedHealthcare, Brian Thompson à New York, s’était suicidé – ce qui ne s’est jamais produit.
Apple n’était pas immédiatement disponible pour commenter lorsqu’il a été contacté par CNBC. Lundi, Apple a déclaré à la BBC qu’il travaillait sur une mise à jour pour résoudre le problème en ajoutant une clarification indiquant quand Apple Intelligence est responsable du texte affiché dans les notifications. Actuellement, les notifications d’actualités générées apparaissent comme provenant directement de la source.
« Les fonctionnalités d’Apple Intelligence sont en version bêta et nous apportons continuellement des améliorations à l’aide des commentaires des utilisateurs », a déclaré la société dans un communiqué partagé avec la BBC. Apple a ajouté qu’il encourage les utilisateurs à signaler un problème s’ils voient un « résumé de notification inattendu ».
La BBC n’est pas la seule organisation de presse à avoir été affectée par les résumés inexacts des notifications d’actualités d’Apple Intelligence. En novembre, la fonctionnalité a envoyé une notification résumée par l’IA affirmant à tort que le Premier ministre israélien Benjamin Netanyahu avait été arrêté.
L’erreur a été signalée sur l’application de médias sociaux Bluesky par Ken Schwencke, rédacteur en chef du site de journalisme d’investigation ProPublica.
CNBC a contacté la BBC et le New York Times pour commenter la solution proposée par Apple au problème de désinformation de sa fonctionnalité d’IA.
Le problème de la désinformation de l’IA
C’est une fonctionnalité Apple dit est conçu pour aider les utilisateurs à analyser leurs notifications pour obtenir des détails clés et à réduire le barrage écrasant de mises à jour que de nombreux utilisateurs de smartphones connaissent.
Cependant, cela a donné lieu à ce que les experts en IA appellent des « hallucinations » : des réponses générées par l’IA qui contiennent des informations fausses ou trompeuses.
« Je soupçonne qu’Apple ne sera pas le seul à rencontrer des difficultés avec le contenu généré par l’IA. Nous avons déjà vu de nombreux exemples de services d’IA racontant avec assurance des contrevérités, appelées « hallucinations », » Ben Wood, analyste en chef du marché axé sur la technologie. société de recherche CCS Insights, a déclaré à CNBC.
Dans le cas d’Apple, comme l’IA tente de consolider les notifications et de les condenser pour n’afficher qu’un résumé de base des informations, elle mélange les mots d’une manière qui caractérise les événements de manière inexacte, tout en les présentant avec assurance comme des faits.
« Apple a eu la complexité supplémentaire d’essayer de compresser le contenu en résumés très courts, ce qui a fini par délivrer des messages erronés », a ajouté Wood. « Apple cherchera sans aucun doute à résoudre ce problème le plus rapidement possible, et je suis sûr que ses concurrents surveilleront de près sa réaction. »
L’IA générative fonctionne en essayant de trouver la meilleure réponse possible à une question ou une invite insérée par un utilisateur, en s’appuyant sur de grandes quantités de données sur lesquelles ses grands modèles de langage sous-jacents sont formés.
Parfois, l’IA ne connaît pas la réponse. Mais comme il a été programmé pour toujours présenter une réponse aux invites de l’utilisateur, cela peut entraîner des cas où l’IA ment effectivement.
On ne sait pas exactement quand la résolution par Apple du bug dans sa fonction de résumé des notifications sera corrigée. Le fabricant d’iPhone a déclaré s’attendre à ce qu’il en arrive un dans « les semaines à venir ».