Dans son roman emblématique, inspiré de Blade Runner Les androïdes rêvent-ils de moutons électriques ? L'auteur Philip K. Dick s'est penché sur les questions éthiques et philosophiques qui se posent lorsque des êtres artificiels développent une conscience semblable à celle des humains. Le roman explore la question de savoir si une entité artificielle est capable d'acquérir les caractéristiques de la sensibilité, telles que la conscience de soi, les émotions et la capacité de perception. Qu'est-ce que cela signifierait pour les frontières qui existent entre l'intelligence humaine et l'intelligence artificielle ?

Bien que nous soyons (avec un peu de chance !) Alors que la technologie est encore loin de se retourner contre nous, les questions soulevées par Dick dans ce livre sont, aujourd'hui, plus pertinentes que jamais. 

Un accès sans précédent à l'intelligence artificielle

C'est là, bien sûr, qu'interviennent les hallucinations de l'IA. Avec l'afflux récent de grands modèles de langage (LLM) comme ChatGPT, nous avons été confrontés à l'intelligence artificielle d'une manière jamais vue auparavant. Les avantages et les inconvénients sont à la fois nombreux et controversés. Mais l'un des aspects les plus fascinants/frustrants/effrayants/amusants de l'intelligence artificielle est le suivant (en fonction de votre vision des choses) Les hallucinations de l'IA sont l'une des principales conséquences de ce déploiement technologique. Ces "hallucinations" se produisent lorsque les LLM présentent des informations fausses, trompeuses ou irrationnelles comme s'il s'agissait de faits. De nombreux utilisateurs ont constaté que les réponses à leurs questions fournies par ces systèmes étaient manifestement fausses. Cela semble généralement se produire lorsqu'un LLM ne dispose pas de données de qualité suffisante ou d'un contexte suffisant pour travailler. 

Une machine peut-elle halluciner ?

Le terme choisi pour ce bogue, "hallucinations", est intéressant. À première vue, il peut sembler paradoxal, car les hallucinations sont traditionnellement associées à des cerveaux humains ou animaux, et non à des machines froides et dures. Mais d'un point de vue métaphorique, hallucination s'avère être un terme assez précis pour décrire ces dysfonctionnements, notamment dans les cas de reconnaissance d'images et de modèles. 

Vous savez que vous voyez des figures dans les nuages ou des visages dans des objets inanimés ? Il s'agit d'un phénomène humain très naturel appelé paréidolie. Mais les hallucinations de l'IA pourraient être décrites comme similaires, en cherchant des modèles reconnaissables dans un fouillis de données. Leurs interprétations erronées peuvent être dues à différents facteurs, notamment le biais ou l'inexactitude des données d'apprentissage, l'ajustement excessif et la complexité élevée des modèles. 

Une réalité qu'ils ne comprennent pas

Les LLM utilisent des statistiques linguistiques pour produire des réponses sur une réalité qu'ils ne comprennent pas vraiment. Leurs réponses peuvent sembler correctes (avec des exemples de grammaire, de sémantique, etc.) mais elles peuvent parfois être complètement absurdes. Une IA mal formée aura des biais et des angles morts inhérents, ce qui signifie qu'elle essaiera de combler les lacunes pour tenter de répondre à votre question. Cependant, les "blancs" qu'elle peut trouver peuvent être très éloignés de la réalité. 

Photo par Possessed Photography sur Unsplash

Certaines personnes ont (plutôt romantique) a comparé les hallucinations de l'IA à nos rêves humains, en ce sens qu'elles mêlent de manière créative des données apparemment aléatoires, sans fondement logique. Ces réponses farfelues peuvent avoir leurs avantages. Elles peuvent être utilisées pour inspirer une réflexion "hors des sentiers battus" ou comme point de départ pour l'écriture, la musique ou l'art. Mais elles peuvent aussi être nuisibles. Elles peuvent faire proliférer les "fake news" et diffuser de fausses informations, ce qui peut évidemment avoir des conséquences dangereuses. Vous ne voulez pas risquer les hallucinations de l'IA lorsqu'il s'agit de voitures autopilotées ou de diagnostics médicaux ! 

Pour tenter de sauver la réputation de l'IA auprès du public, les scientifiques mènent une guerre contre les hallucinations avec des méthodes conçues pour les combattre. 

Comment poser de meilleures questions permet d'obtenir de meilleures réponses

L'une de ces méthodes est le "Prompt Engineering". Il nous incombe à nous, les utilisateurs, de réfléchir attentivement à la manière dont nous formulons les questions que nous posons aux gestionnaires de l'apprentissage tout au long de la vie. Il s'agit de demander aux droit question. Une invite est essentiellement le contexte et l'ensemble des instructions que vous donnez à un LLM, comme ChatGPT, pour obtenir une réponse appropriée. Une invite réussie implique d'inclure un contexte et une perspective clairs sur ce que vous demandez, de donner un "rôle" au générateur d'IA et même d'indiquer comment vous souhaitez que la réponse soit structurée. 

Il ne s'agit pas simplement de taper quelques mots-clés dans Google. Pour obtenir les meilleurs résultats, les plus précis, il est parfois nécessaire d'avoir recours à de multiples invites. Fondamentalement, vous devez contrôler entièrement vos entrées pour guider vos sorties, ce qui est une façon de travailler avec le système existant sans modifier intrinsèquement sa programmation. Plus la qualité de la demande est élevée, plus la qualité de la réponse sera élevée. 

Photo par Igor Omilaev sur Unsplash

Comment le "Promt Engineering" s'apparente-t-il au trip psychédélique ?

"Fascinant ! - on pourrait dire - "Mais quel est le rapport avec les psychédéliques ?!" Pour être honnête, il n'y a pas beaucoup de charges, à part l'invocation de la phrase '.hallucinations. Mais les méthodes permettant d'inhiber les hallucinations de l'IA nous ont amenés à réfléchir à la manière dont nous influençons nos propres hallucinations volontaires, c'est-à-dire les voyages psychédéliques. 

À bien des égards, cette idée d'adapter l'entrée pour assurer une bonne sortie est parallèle à celle de l la définition des intentionset les autres travaux que nous effectuons pour préparez-vous à un voyage psychédélique à haute dose. Cependant, plutôt que de le faire pour éviter les "mauvaises" réponses (certains diront qu'il n'y a pas de mauvaises réponses dans un voyage psychédélique !) nous le faisons pour obtenir l'expérience la plus profonde et la plus générative possible. Définir son intention est en quelque sorte la "question". 'Set et Settingest comme le contexte. 

Créé via deepdreamgenerator

Si, contrairement à l'IA, nos hallucinations, nos rêves et nos vagabondages sont généralement positifs, le fait de cultiver un certain niveau de concentration en vue d'un voyage peut vous aider à en tirer le meilleur parti. Assurez-vous que vous vous sentez bien mentalement et que vous vous trouvez dans un environnement sûr et confortable. Formulez vos questions, vos intentions et vos idées en vue d'un voyage. univers bienveillantplutôt qu'une recherche sur Google. 

Visions de notre moi intérieur

Avoir des hallucinations est une chose très humaine - manifester des visions de nos désirs intérieurs, de nos peurs, de nos merveilles, ou même de la vidéo stupide que vous avez regardée sur Youtube la semaine dernière. Tout ce qui est en nous influence ce que nous voyons et expérimentons lorsque nous voyageons. Entrée, sortie. Si les hallucinations de l'IA ne sont certainement pas du même ordre, ni même du même ordre, il n'en reste pas moins qu'elles ne peuvent pas être considérées comme une menace pour la santé publique et l'environnement. (du moins, pas encore !) il est possible de s'inspirer de la manière dont nous les abordons, en ce qui concerne nos propres incursions dans le domaine de l'éducation et de la formation. intelligence psychédélique