I sin ikoniske, Blade Runner-inspirerende roman Drømmer androider om elektriske får, Forfatteren Philip K. Dick funderede over de etiske og filosofiske spørgsmål, der opstår, når kunstige væsener udvikler menneskelignende bevidsthed. Romanen undersøger, om en menneskeskabt enhed er i stand til at påtage sig de karakteristika, der kendetegner følsomhed, såsom selvbevidsthed, følelser og evnen til at opfatte. Hvad ville det betyde for de grænser, der findes mellem menneskelig og kunstig intelligens?

Mens vi er (forhåbentlig!) Der er stadig et stykke vej til, at teknologien vender sig mod os, og de spørgsmål, Dick rejser i denne bog, er i dag mere relevante end nogensinde. 

Uovertruffen adgang til kunstig intelligens

Det er selvfølgelig her, AI-hallucinationerne kommer ind i billedet. Med den seneste tilstrømning af store sprogmodeller (LLM'er) som ChatGPT, har vi stået ansigt til ansigt med kunstig intelligens på en måde, som aldrig før har været mulig. Fordelene og ulemperne er både mange og kontroversielle. Men en af de mere fascinerende/frustrerende/skræmmende/sjove (afhængigt af dit syn på tingene) En af de ting, der er kommet ud af denne teknologiudrulning, er AI-hallucinationer. Disse "hallucinationer" er, når LLM'er præsenterer falske, vildledende eller irrationelle oplysninger, som om de var fakta. Mange brugere har fundet ud af, at svarene på deres spørgsmål fra disse systemer er beviseligt falske. Dette synes generelt at ske, når en LLM ikke får data af høj nok kvalitet eller nok kontekst at arbejde ud fra. 

Kan en maskine hallucinere?

Den term, der er valgt til denne fejl, "hallucinationer", er interessant. I første omgang kan det virke paradoksalt, da hallucinationer traditionelt forbindes med menneske- eller dyrehjerner, ikke med kolde, hårde maskiner. Men set fra en metaforisk vinkel, Hallucination viser sig at være et ret præcist udtryk til at beskrive disse fejlfunktioner, især i tilfælde af billed- og mønstergenkendelse. 

Kender du det, at du ser figurer i skyerne eller ansigter i livløse genstande? Det er et meget naturligt menneskeligt fænomen, der kaldes Pareidolia. Men AI-hallucinationer kan beskrives på samme måde, idet de leder efter genkendelige mønstre i et rod af data. Deres fejlfortolkninger kan ske på grund af forskellige faktorer, herunder bias/unøjagtighed i træningsdata, overtilpasning og høj modelkompleksitet. 

En virkelighed, de ikke forstår

LLM'er bruger sproglig statistik til at producere svar om en virkelighed, som de faktisk ikke forstår. Deres svar kan virke korrekte (med eksemplarisk grammatik, semantik osv.) men nogle gange kan de være det rene nonsens. Dårligt trænet AI vil have iboende bias og blinde vinkler - hvilket betyder, at den vil forsøge at udfylde de tomme pladser i forsøget på at besvare dit spørgsmål. Men de "tomme felter", den kan finde på, kan være helt ude i hampen. 

Foto af Possessed Photography på Unsplash

Nogle mennesker har (temmelig romantisk) sammenlignede AI-hallucinationer med vores menneskelige drømme, idet de på kreativ vis smelter tilsyneladende tilfældige data sammen uden logisk grundlag. Disse skøre reaktioner kan have deres fordele. De kan bruges til at inspirere til "ud af boksen"-tænkning eller som udgangspunkt for skrivning, musik eller kunst. Men de kan også være skadelige. De kan skabe falske nyheder og sprede falsk information, hvilket naturligvis kan have farlige konsekvenser. Du vil ikke risikere AI-hallucinationer, når det drejer sig om selvkørende biler eller medicinske diagnoser! 

I et forsøg på at redde AI's omdømme i offentligheden fører forskere krig mod hallucinationer med metoder, der er udtænkt til at bekæmpe dem. 

Hvordan du får bedre svar ved at stille bedre spørgsmål

En af disse metoder er 'Prompt Engineering'. Det betyder, at det er op til os, brugerne, at tænke nøje over, hvordan vi formulerer de spørgsmål, vi stiller til LLM'erne. Det handler om at spørge rigtigt spørgsmål. En prompt er dybest set den kontekst og de instruktioner, du giver en LLM, som ChatGPT, for at få et passende svar. En vellykket prompt omfatter en klar kontekst og et perspektiv på det, du spørger om, giver AI-generatoren en "rolle" og skitserer endda, hvordan du ønsker, at svaret skal struktureres. 

Det er ikke bare at smide nogle søgeord ind i Google. For at få det bedste og mest præcise resultat kan det nogle gange være nødvendigt med flere prompts. Dybest set skal du have fuld kontrol over dit input for at styre dit output, hvilket er en måde at at arbejde med det eksisterende system uden i sig selv at ændre programmeringen. Jo højere kvalitet den prompt, du lægger ind, har, jo højere kvalitet er den respons, du får ud. 

Foto af Igor Omilaev på Unsplash

Hvordan 'Promt Engineering' forholder sig til psykedelisk tripping

"Fascinerende ting!" - kan man sige - "Men hvad har det med psykedelika at gøre?!" Tja, ikke meget for at være ærlig, bortset fra påkaldelsen af 'hallucinationer'. Men de metoder, hvormed man kan hæmme AI-hallucinationer, har fået os til at tænke på, hvordan vi påvirker vores egne, målrettede hallucinationer - dvs. psykedeliske trips. 

På mange måder er denne idé om at skræddersy input for at sikre et godt output parallel med Fastlæggelse af intentionerog det andet arbejde, vi gør for at forbered dig på et psykedelisk trip med højere doser. Men i stedet for at gøre det for at undgå 'forkerte' svar (nogle vil måske sige, at der ikke er nogen forkerte svar i et psykedelisk trip!) Vi gør det for at få den mest dybtgående og generative oplevelse, vi kan. At sætte din intention er på en måde 'spørgsmålet'. 'Indstilling og indstilling' er ligesom konteksten. 

Oprettet via deepdreamgenerator

I modsætning til AI er vores hallucinationer, drømme og tankemylder som regel en positiv ting, men hvis du dyrker et vist niveau af fokus på en rejse, kan det hjælpe dig med at få mest muligt ud af den. Sørg for, at du har det godt mentalt, og at du befinder dig i et sikkert og behageligt miljø. Formuler dine spørgsmål/intentioner/ideer til en Venligt universi stedet for et Google-scrape. 

Visioner af vores indre selv

At hallucinere er en meget menneskelig ting - at manifestere visioner af vores indre ønsker, frygt, vidundere eller endda den fjollede video, du så på Youtube i sidste uge. Alt i os påvirker, hvad vi ser og oplever, når vi tripper. Input, output. Så selvom AI-hallucinationer bestemt ikke er i samme liga, eller endda på samme niveau (i hvert fald ikke endnu!) er det muligt at lade sig inspirere af den måde, vi griber dem an på, når det gælder vores egne forsøg med Psykedelisk intelligens