Ce qui suit est un poste et une opinion invités de JD Seraphine, fondateur et PDG de Raiinmaker.
Le Grok Ai de X ne semble pas cesser de parler de «génocide blanc» en Afrique du Sud; Chatgpt est devenu un sycophant. Nous sommes entrés à une époque où l’IA ne répète pas seulement les connaissances humaines qui existent déjà – elle semble la réécrire. Des résultats de recherche aux plates-formes de messagerie instantanées comme WhatsApp, les modèles de grands langues (LLM) deviennent de plus en plus l’interface que nous, en tant qu’humains, interagissons le plus.
Que cela nous plaise ou non, il n’y a plus d’ignorance d’IA. Cependant, compte tenu des innombrables exemples devant nous, on ne peut s’empêcher de se demander si la fondation sur laquelle ils sont construits est non seulement défectueuse et biaisée mais aussi manipulée intentionnellement. À l’heure actuelle, nous ne faisons pas que traiter les sorties biaisées – nous sommes confrontés à un défi beaucoup plus profond: les systèmes d’IA commencent à renforcer une version de la réalité qui est façonnée non pas par la vérité, mais par n’importe quel contenu gratté, classé et écho le plus souvent en ligne.
Les modèles d’IA actuels ne sont pas seulement biaisés au sens traditionnel; Ils sont de plus en plus formés pour apaiser, s’aligner sur le sentiment général du public, éviter les sujets qui provoquent l’inconfort et, dans certains cas, ont même écrasé certaines des vérités gênantes. Le récent comportement «sycophantique» de Chatgpt n’est pas un bug – c’est le reflet de la façon dont les modèles sont adaptés aujourd’hui à l’engagement des utilisateurs et à la rétention des utilisateurs.
De l’autre côté du spectre se trouvent des modèles comme Grok qui continuent de produire des sorties liées aux théories du complot, y compris des déclarations remettant en question des atrocités historiques comme l’Holocauste. Que l’IA soit désinfectée au point de vider ou reste subversive au point de mal, soit extrême déforme la réalité telle que nous la connaissons. Le fil conducteur ici est clair: lorsque les modèles sont optimisés pour la viralité ou l’engagement des utilisateurs sur la précision, la vérité devient négociable.
Lorsque les données sont prises, non données
Cette distorsion de la vérité dans les systèmes d’IA n’est pas seulement le résultat de défauts algorithmiques – il commence à partir de la façon dont les données sont collectées. Lorsque les données utilisées pour former ces modèles sont grattées sans contexte, consentement ou toute forme de contrôle de la qualité, il n’est pas surprenant que les modèles de gros langues construits au-dessus de celui-ci héritent des biais et des angles morts fournis avec les données brutes. Nous avons également vu ces risques se dérouler dans des poursuites réelles.
Les auteurs, les artistes, les journalistes et même les cinéastes ont déposé des plaintes contre les géants de l’IA pour avoir gratté leur propriété intellectuelle sans leur consentement, soulevant non seulement des préoccupations juridiques mais aussi des questions morales – qui contrôle les données utilisées pour construire ces modèles, et qui décide de ce qui est réel et de ce qui n’est pas?
Une solution tentante consiste à dire simplement que nous avons besoin de «données plus diverses», mais cela seul ne suffit pas. Nous avons besoin d’intégrité des données. Nous avons besoin de systèmes qui peuvent tracer l’origine de ces données, valider le contexte de ces entrées et inviter la participation volontaire plutôt que d’exister dans leurs propres silos. C’est là que l’infrastructure décentralisée offre une voie à suivre. Dans un cadre décentralisé, la rétroaction humaine n’est pas seulement un patch – c’est un pilier de développement clé. Les contributeurs individuels sont autorisés à aider à construire et à affiner les modèles d’IA grâce à une validation en temps réel. Le consentement est donc explicitement intégré, et la confiance devient donc vérifiable.
Un avenir construit sur la vérité partagée, pas le consensus synthétique
La réalité est que l’IA est là pour rester, et nous n’avons pas seulement besoin de l’IA plus intelligente; Nous avons besoin d’une IA qui est ancrée dans la réalité. La dépendance croissante de ces modèles dans notre quotidien – que ce soit par la recherche ou les intégrations d’applications – est une indication claire que les sorties erronées ne sont plus des erreurs isolées; Ils façonnent comment des millions d’interprètent le monde.
Un exemple récurrent de ceci est les aperçus de l’IA de Google Search qui ont notoirement été connu pour faire des suggestions absurdes. Ce ne sont pas seulement des bizarreries étranges – elles indiquent un problème plus profond: les modèles d’IA produisent des sorties confiantes mais fausses. Il est essentiel que l’industrie de la technologie dans son ensemble prenne note du fait que lorsque l’échelle et la vitesse sont prioritaires au-dessus de la vérité et de la traçabilité, nous n’obtenons pas de modèles plus intelligents – nous obtenons ceux convaincants qui sont formés à «sonner bien».
Alors, où allons-nous d’ici? Pour corriger les cours, nous avons besoin de plus que de simples filtres de sécurité. Le chemin devant nous n’est pas seulement technique – il est participatif. Il existe de nombreuses preuves qui indiquent un besoin critique d’élargir le cercle des contributeurs, passant de la formation à huis clos pour ouvrir des boucles de rétroaction conduites par la communauté.
Avec les protocoles de consentement soumis à la blockchain, les contributeurs peuvent vérifier comment leurs données sont utilisées pour façonner les sorties en temps réel. Ce n’est pas seulement un concept théorique; Des projets tels que le réseau ouvert de l’intelligence artificielle à grande échelle (LAION) testent déjà des systèmes de rétroaction communautaire où les contributeurs de confiance aident à affiner les réponses générées par l’IA. Des initiatives telles que Hugging Face travaillent déjà avec des membres de la communauté qui testent les LLM et contribuent aux résultats de l’équipe rouge dans les forums publics.
Par conséquent, le défi devant nous n’est pas de savoir si cela peut être fait – il s’agit de savoir si nous avons la volonté de construire des systèmes qui mettent l’humanité, et non les algorithmes, au cœur du développement de l’IA.
Résumé : L’IA joue un rôle de plus en plus important dans nos vies, mais son développement pose des défis éthiques et moraux. Il est crucial d’améliorer la qualité et la provenance des données utilisées pour construire ces technologies, tout en favorisant une participation communautaire pour garantir que l’IA soit ancrée dans la réalité plutôt que dans des consens après des biais. L’avenir de l’IA devrait être axé sur la vérité et l’intégrité.