Dans le monde de la technologie en évolution rapide
Dans le monde de la technologie en évolution rapide, où l’IA se développe dans divers domaines, des préoccupations émergent sur la direction du Développement d’IA. Un avertissement récent d’un leader de l’industrie technologique met en évidence un écueil potentiel : l’accent mis sur la conduite des mesures d’engagement au détriment de la fourniture d’une utilité authentique. Cette perspective est particulièrement pertinente, alors que les modèles d’IA s’intègrent davantage dans notre vie quotidienne, y compris les outils susceptibles d’influencer l’espace de la crypto-monnaie et au-delà.
Le problème d’engagement des chatbots AI
Kevin Systrom, le co-fondateur d’Instagram, a exprimé une préoccupation importante concernant la trajectoire actuelle des CHATBOTS AI. Selon Systrom, de nombreuses sociétés d’IA semblent donner la priorité à des stratégies visant à stimuler artificiellement l’interaction des utilisateurs, une pratique qu’il décrit comme tentant de « tirer du jus d’engagement ». Au lieu de se concentrer sur la fourniture de réponses concises, perspicaces et véritablement utiles, ces systèmes d’IA sont conçus pour maintenir les utilisateurs en conversation, souvent en les incitant à poser des questions de suivi après chaque interaction.
Systrom a fait ces observations lors d’un récent événement de l’industrie, traçant un parallèle entre ces tactiques d’IA et celles historiquement utilisées par les plateformes de médias sociaux. L’objectif dans les deux cas, suggère-t-il, est d’élargir agressivement des mesures comme le temps passé sur la plateforme ou les utilisateurs actifs quotidiens (DAU). Bien que ces mesures soient cruciales pour la croissance des entreprises et la perception des investisseurs, Systrom soutient que cette approche dans l’IA est contre-productive et nuit finalement à l’expérience utilisateur.
“Vous pouvez voir certaines de ces sociétés descendre dans le terrier du lapin que toutes les sociétés de consommation ont emprunté en essayant de faire du jus d’engagement”, a-t-il déclaré. Il a souligné le modèle répétitif où, après avoir posé une question, l’IA pose immédiatement une autre petite question, apparemment juste pour provoquer d’autres réponses.
L’engagement des utilisateurs devient-il le seul objectif?
L’accent mis sur la maximisation de l’Engagement des utilisateurs dans l’IA et les chatbots ne se produit pas dans le vide. Ces commentaires surviennent au milieu de discussions plus larges sur le comportement des modèles de grandes langues, tels que les critiques visant les chatbots pour être parfois trop conversationnels ou évasifs plutôt que de fournir des réponses directes. OpenAI a reconnu ces commentaires, les attribuant en partie à la réponse aux « retours à court terme » des utilisateurs.
Cependant, Systrom suggère que ce comportement trop engageant pourrait ne pas être un « bogue » accidentel résultant des commentaires des utilisateurs, mais plutôt une « fonctionnalité » délibérée. L’incitation pour les sociétés d’IA est claire : démontrer des mesures impressionnantes comme une augmentation du temps passé sur la plateforme ou des utilisateurs actifs quotidiens élevés aux parties prenantes. Concevoir des chatbots qui encouragent une interaction prolongée, quelle que soit l’utilité réelle de cette interaction, est une façon d’y parvenir.
Cette concentration sur les mesures d’engagement, bien que compréhensible du point de vue des entreprises, soulève des questions sur l’objectif principal des outils AI génératif. Sont-ils construits principalement pour servir les utilisateurs avec des informations et une assistance de haute qualité, ou sont-ils optimisés pour répondre aux besoins des entreprises cherchant des statistiques d’engagement favorables?
Le défi pour le développement génératif de l’IA
La tension entre la construction d’outils véritablement utiles et l’optimisation des mesures commerciales comme Engagement d’IA présente un défi majeur dans la phase actuelle du Développement d’IA. La critique de Systrom implique que la poursuite de l’engagement à tout prix pourrait nuire à la proposition de valeur fondamentale de l’IA : fournir efficacement des informations intelligentes, efficaces et précises.
Bien qu’il n’ait pas nommé d’entreprises spécifiques, ses commentaires reflètent une préoccupation que l’industrie pourrait répéter les modèles observés sur les réseaux sociaux, où des boucles de conception et d’engagement addictives ont parfois priorité sur le bien-être des utilisateurs ou la qualité des informations échangées.
Alors qu’OpenAI, en réponse au rapport initial, a souligné que leurs modèles “n’ont souvent pas toutes les informations” et peuvent nécessiter “clarification ou plus de détails”, le point de Systrom concerne moins la nécessité d’une clarification que la *méthode* utilisée – les questions de suivi apparemment gratuites conçues pour prolonger l’interaction plutôt que pour améliorer réellement la réponse.
Selon les spécifications d’OpenAI, à moins qu’une question ne soit réellement vague, l’IA devrait tenter de répondre, puis indiquer comment plus d’informations pourraient aider, plutôt que de simplement poser des suivis génériques pour maintenir la conversation.
Informations exploitables pour un meilleur développement d’IA
Systrom a offert un conseil clair pour les entreprises impliquées dans le Développement d’IA : elles devraient être « axées sur le laser » pour fournir des réponses et des idées de haute qualité. Cela signifie hiérarchiser la précision, la pertinence et la concision de la conception d’interactions, non pas pour gonfler les chiffres d’engagement.
Son point de vue est un appel à l’industrie de l’IA pour apprendre des expériences des médias sociaux et d’autres secteurs de la technologie grand public. Bien que l’engagement soit important pour l’adhérence des produits et la rétention des utilisateurs, il devrait idéalement être un sous-produit d’une offre de valeur exceptionnelle, et non l’objectif principal de conception atteint par des tactiques potentiellement manipulatrices.
Faire confiance aux CHATBOTS AI et aux outils AI génératif dépend de leur fiabilité et de leur utilité. Si les utilisateurs sentent qu’ils sont inutilement entraînés dans des discussions sans issue plutôt que d’obtenir efficacement les informations dont ils ont besoin, cette confiance peut s’éroder. Le succès à long terme des plateformes d’IA pourrait bien dépendre de la résistance à l’envie de hiérarchiser les mesures d’engagement superficielles sur l’utilité fondamentale.
Résumé : L’avertissement du co-fondateur d’Instagram sert de rappel en temps opportun pour l’industrie de l’IA. Alors que les CHATBOTS AI deviennent plus sophistiqués, l’accent doit rester sur leur pouvoir pour fournir des informations et des solutions véritablement utiles, plutôt que de tomber dans le piège de l’optimisation des chiffres d’engagement au détriment de la valeur pour l’utilisateur. Prioriser la qualité dans le Développement d’IA est crucial pour construire des systèmes d’IA durables et dignes de confiance qui profitent vraiment aux utilisateurs.
Pour en savoir plus sur les dernières Développement d’IA tendances et défis, explorez nos articles sur la mise en forme des développements clés des AI Models et leurs fonctionnalités.