Anticiper les dérives de l’intelligence artificielle (IA). Dans le contexte actuel de développement rapide du domaine des cryptomonnaies, le fondateur d’Ethereum, Vitalik Buterin, se distingue comme une voix réfléchie. En effet, il est l’un des rares à pratiquer régulièrement la prise de hauteur pour analyser la situation avec l’objectivité nécessaire. À travers une philosophie qualifiée de « techno-optimiste », à la fois innovante et humaniste, il examine l’essor actuel de l’intelligence artificielle (IA) avec une question centrale : comment limiter les dérives potentielles d’une super-intelligence à l’échelle mondiale ?
- Sam Altman d’OpenAI a annoncé son ambition de mettre en œuvre une intelligence générale artificielle (AGI) d’ici 2025.
- Vitalik Buterin promeut une approche d’« accélérationnisme défensif » pour anticiper les dérives liées à une super-intelligence IA.
OpenAI promet une intelligence générale artificielle (AGI) pour 2025
Le secteur des cryptomonnaies évolue souvent au détriment de questions cruciales. Il est donc vital de prendre le temps de réfléchir aux éventuelles conséquences de cette avancée pionnière.
Vitalik Buterin, un véritable prodige de la crypto, souvent critiqué, mais inégalé, s’efforce d’anticiper les évolutions à venir pour assurer leur déploiement dans un environnement sûr et optimisé.
Il n’est pas surprenant que l’intelligence artificielle (IA) soit actuellement le sujet le plus controversé, surtout face à une adoption croissante, sans les garde-fous appropriés. Sam Altman, le créateur de ChatGPT (OpenAI) et de Worldcoin (WLD), s’apprête à lancer une intelligence générale artificielle (AGI) pour rivaliser avec les capacités humaines.
« Nous sommes désormais confiants dans notre capacité à développer une AGI comme nous l’avons prévu. Nous pensons qu’en 2025, nous pourrions voir les premiers agents d’IA intégrer la main-d’œuvre et transformer significativement la production des entreprises. Nous sommes convaincus que mettre de grands outils entre les mains des gens mène à de grands résultats pris dans une portée largement distribuée. »
Vitalik Buterin prône un « accélérationnisme défensif »Â
Par coïncidence ou non, Vitalik Buterin a également abordé le sujet récemment. Dans un article de blog, il a proposé une stratégie d’« accélérationnisme défensif ».
Celle-ci consiste à développer en parallèle d’une avancée technologique majeure, les moyens de contrer ses dérives possibles. Dans le cas de l’IA, cela pourrait impliquer une « pause douce », permettant à l’humanité de « gagner du temps pour se préparer ».
Vitalik Buterin anticipe qu’une IA surpuissante pourrait émerger d’ici cinq ans, mais il souligne qu’aucune garantie n’existe pour assurer un résultat positif. Ainsi, il recommande d’instaurer une réduction préventive de 99 % de la puissance de calcul globale pendant une à deux années.
Comment mettre en œuvre cette réduction ? En facilitant l’implantation d’une puce sur le matériel d’IA à l’échelle industrielle pour garantir un contrôle sur son développement. Cela nécessiterait un trio de signatures délivrées chaque semaine par de grandes instances internationales distinctes.
« Les signatures seraient indépendantes de l’appareil (et nous pourrions même exiger une preuve à divulgation zero-knowledge (ZK) qu’elles ont bien été publiées sur une blockchain), de sorte qu’il s’agirait d’un principe tout ou rien. Il n’y aurait pas de moyen pratique pour autoriser un appareil à fonctionner sans autoriser tous les autres appareils. »
Le principe d’accélérationnisme défensif ne s’oppose pas au progrès. Au contraire, Vitalik Buterin explique qu’il s’agit d’une « extension des valeurs sous-jacentes des cryptomonnaies (décentralisation, résistance à la censure, économie mondiale ouverte et société) à d’autres domaines de la technologie. Cependant, cela doit être fait avec l’assurance que ces développements privilégient la sécurité des humains.