La montée en puissance de l’IA a mis en évidence la double nature de la technologie : une force de progrès mais aussi une source de grands risques. Elle augmente la production et améliore les capacités de calcul, mais diffuse également la désinformation et manipule le discours public, comme la montée des Fakes Deep a démontré de manière convaincante.
Les systèmes d’IA sont confrontés à des défis systémiques, certains modèles présentant des taux d’erreur relativement élevés, se reflétant mal sur l’ensemble de l’industrie et sapant la confiance du public. Les conséquences des limites de l’IA peuvent être désastreuses dans les véhicules autonomes, les soins de santé et les industries à enjeux élevés en général. Des modifications visuelles mineures peuvent amener les véhicules autonomes à faire des erreurs désastreuses, et de petites erreurs de données peuvent entraîner des diagnostics erronés ou des risques négligés.
L’IA vérifiable devient une tendance palpable à mesure que la conscience du public des inconvénients de l’IA de la boîte noire se développe. Au-delà d’un mot à la mode, il fait référence au développement de systèmes d’IA responsables, vérifiables et transparents. Il garantit que les modèles d’IA et leurs décisions peuvent être clarifiés et vérifiés afin que les utilisateurs directs et les parties prenantes puissent leur faire confiance. Il permet également aux organisations de tracer les processus de prise de décision des systèmes d’IA, de valider les algorithmes et les données utilisés, et de confirmer qu’elles fonctionnent sans erreur ni biais.
En revanche, le concept d’IA de la boîte noire désigne des systèmes dont les processus de prise de décision internes ne sont pas facilement accessibles ou compris. La sortie des systèmes, dont ils arrivent par des calculs complexes, est introuvable car il n’y a aucun aperçu des processus sous-jacents. Les utilisateurs reçoivent une décision ou une sortie sans une compréhension claire de la façon dont l’IA est parvenue à cette conclusion.
Se joindre aux forces au nom de la confiance
La technologie de la blockchain est devenue un allié puissant des plates-formes d’IA tentant de réaliser des décisions transparentes. Kite AI et Eigenlayer ont récemment annoncé un partenariat visant à renforcer la confiance et la sécurité dans le cadre de l’IA décentralisée, qui consiste à intégrer la technologie de réapprovisionnement de Eigenlayer dans le marché des actifs AI basé sur l’IA de Kite AI. La collaboration privilégie la sécurité évolutive et la vérification sans confiance des calculs d’IA, ce qui entraîne un environnement où les données, les modèles et les agents d’IA peuvent obtenir des performances et une intégrité garanties soutenues par les mécanismes de sécurité éprouvés d’Ethereum.
Kite AI est une blockchain de couche 1 compatible EVM, gérant un marché où les gens peuvent acheter, vendre ou utiliser des outils et modèles d’IA. Eigenlayer (“propre couche”) le complète en permettant à n’importe qui de construire au-dessus d’un réseau de confiance décentralisé. Son système de réapprovisionnement aide à renforcer la sécurité en utilisant la configuration de confiance d’Ethereum d’une nouvelle manière. Ensemble, ils s’assurent que les résultats des modèles d’IA peuvent être vérifiés et fiables sans avoir besoin d’un intermédiaire et que le système est évolutif, ce qui signifie qu’il peut croître et gérer plus d’activité.
Kite AI valide les actifs et la sortie de l’IA de manière décentralisée en utilisant le cadre de service vérifiable autonome de Eigenlayer (AVS). Plus précisément, les validateurs de Eigenlayer effectuent des tâches de vérification spécialisées pour confirmer la précision des sorties du modèle AI et les actifs IA répertoriés remplissent des critères concrets. Cela signifie que les utilisateurs et les développeurs de Kite AI reçoivent une assurance supplémentaire, car chaque actif ou résultat de l’IA est vérifié indépendamment par un réseau de validateurs marqués et distribués au lieu de s’appuyer sur les allégations du fournisseur d’actifs.
Responsabilité à l’ère des machines hallucinantes
Ce partenariat brouille les frontières entre l’IA et la blockchain, aidant à atténuer les risques importants associés à l’IA. Les humains considéraient autrefois l’idée d’outils open source générant du texte, des images, de l’audio et des vidéos convaincants à la vitesse de la lumière comme une panacée. Cependant, la prévalence de l’IA a soulevé des préoccupations considérables concernant la validité et l’authenticité, et les implications de la propension des outils de la boîte noire à “halluciner” peuvent être graves, en particulier pour les organisations qui essaient de se démarquer sur les marchés de la faille.
Dans les termes les plus simples, Chatgpt, Claude, Bard, Perplexity et d’autres peuvent inventer des choses. Les outils peuvent générer du contenu qui n’est pas enraciné dans les faits, mais en spéculation. Ils ignorent le contexte et la précision factuelle dans leurs efforts pour satisfaire la demande de l’utilisateur ou fournir l’information le plus rapidement possible. La question de qui assume la responsabilité du résultat est encore plus déconcertante. Les cadres juridiques actuels ne tiennent généralement pas les créateurs de LLM modernes criminellement responsables des actions prises par les utilisateurs directs des outils. Rien ne les empêche de blâmer les utilisateurs ou les outils eux-mêmes pour leurs sorties défectueuses.
Malgré la prévalence de l’IA, les outils sont considérés comme expérimentaux, c’est-à-dire qu’ils “apprennent”. En fin de compte, la personne qui les utilise prend la responsabilité de toute conséquence d’agir sur sa production. Ils sont tenus responsables de ne pas comprendre leurs limites.
Réduire le risque de dommages générés par l’IA
Les systèmes d’IA s’appuient sur les données de formation et de fonctionnement, de sorte que les fournisseurs de données doivent être tenus responsables de la précision et de la qualité des données. Ils doivent s’assurer qu’ils respectent les réglementations de confidentialité et qu’ils sont d’origine éthique. Les sources de données décentralisées et les outils de vérification réduisent le risque de données fausses ou biaisées, car elles permettent un aperçu de la prise de décision et de la sortie. Ils peuvent aider à résoudre l’absence de garanties appropriées et à jouer un rôle crucial dans la lutte contre les fausses informations, qui se perpétuent facilement, étant donné à quel point elles sont présentées de manière convaincante. Il n’y a par ailleurs aucun moyen d’atténuer les risques résultant du fait que les modèles d’IA sont formés sur des données agrégées, agissent sur des invites et n’ont pas l’intuition pour déterminer si les données ou les invites (ou les deux) sont biaisées, nocives ou ignorent les preuves.
Les intégrations de la blockchain et de l’IA émergent comme la dernière et parfois unique ligne de défense. Considérez un exemple du monde réel : un système d’IA prend une décision qui a un impact négatif sur une entreprise, et l’entreprise souffre sans aucun doute. Que le fournisseur ou le développeur de l’IA assume la responsabilité d’une erreur résultant d’un défaut système est discutable. La responsabilité sera probablement supportée par l’employé qui a utilisé l’outil sans comprendre comment il fonctionne et potentiellement par leur manager pour ne pas les superviser. Tout cela pourrait se terminer avec le licenciement de l’employé, mais une énorme erreur affectera toute l’organisation.
Avertissement : Cet article est fourni à des fins d’information uniquement. Il n’est pas offert ou destiné à être utilisé comme des conseils juridiques, fiscaux, d’investissements, financiers ou autres.
Source : CryptoEdu
Résumé
La dualité de l’IA, à la fois bénéfique et risquée, appelle à une vérification et une responsabilité accrues. Les collaborations entre IA et blockchain, comme celle de Kite AI et Eigenlayer, visent à renforcer la confiance et à réduire les risques associés aux décisions algorithmiques. La nécessité de systèmes transparents et vérifiables devient essentielle pour garantir l’intégrité et la responsabilité dans un monde de plus en plus numérisé.