Fuite de document Apple : comment les réponses de l'IA sont évaluées ?

  • CS
  • Mis à jour le
iOS

Un document interne d'Apple, intitulé "Preference Ranking V3.3 Vendor", a fuité et révèle le système d'évaluation utilisé par des évaluateurs humains pour noter les réponses générées par l'IA des assistants digitaux (potentiellement Siri ou Apple Intelligence). Les réponses sont jugées selon plusieurs critères, notamment la véracité, l'absence de dangerosité, la concision et la satisfaction de l'utilisateur. Ces directives, qui rappellent celles de Google pour l'évaluation de la qualité de la recherche, mettent en lumière les standards de qualité en constante évolution qui régissent les réponses de l'IA et leur impact potentiel sur le contenu qui pourrait être mis en avant, cité ou résumé par les futurs outils de recherche basés sur l'IA.

Source : https://searchengineland.com/apple-preference-ranking-guidelines-453945