I sin ikoniska, Blade Runner-inspirerande roman "Drömmer androider om elektriska får? funderade författaren Philip K. Dick över de etiska och filosofiska frågor som uppstår när artificiella varelser utvecklar ett människoliknande medvetande. Romanen utforskar om en människoskapad enhet kan anta de egenskaper som kännetecknar medvetande; såsom självmedvetenhet, känslor och förmågan att uppfatta. Vad skulle detta innebära för de gränser som finns mellan mänsklig och artificiell intelligens?

Medan vi är (förhoppningsvis!) fortfarande långt ifrån att tekniken vänder sig mot oss, är de frågor som Dick tar upp i den här boken idag mer relevanta än någonsin. 

Oöverträffad tillgång till artificiell intelligens

Det är naturligtvis här AI-hallucinationerna kommer in i bilden. Med den senaste tidens tillströmning av stora språkmodeller (LLM) som ChatGPT, har vi kommit ansikte mot ansikte med artificiell intelligens på ett sätt som aldrig tidigare varit möjligt. Fördelarna och nackdelarna är både många och kontroversiella. Men en av de mer fascinerande/frustrerande/skräckinjagande/roliga (beroende på hur du ser på saken) Det värsta som har hänt efter den här tekniska lanseringen är AI-hallucinationer. Dessa "hallucinationer" är när LLM:er presenterar falsk, vilseledande eller irrationell information som om den vore fakta. Många användare har funnit att svaren på deras frågor som tillhandahålls av dessa system är bevisligen falska. Detta verkar i allmänhet hända när en LLM inte får tillräckligt högkvalitativa data eller tillräckligt med sammanhang att arbeta utifrån. 

Kan en maskin hallucinera?

Den term som har valts för den här buggen, "hallucinationer", är intressant. Till en början kan det verka paradoxalt, eftersom hallucinationer traditionellt förknippas med människors eller djurs hjärnor, inte med kalla, hårda maskiner. Men ur en metaforisk synvinkel.., hallucination visar sig vara en ganska träffande term för att beskriva dessa funktionsstörningar, framför allt när det gäller bild- och mönsterigenkänning. 

Du vet hur du ser figurer i molnen eller ansikten i livlösa föremål? Detta är ett mycket naturligt mänskligt fenomen som kallas pareidolia. Men AI-hallucinationer kan beskrivas som liknande, där man letar efter igenkännbara mönster i en röra av data. Deras feltolkningar kan bero på olika faktorer, bland annat felaktigheten i träningsdata, överanpassning och hög modellkomplexitet. 

En verklighet som de inte förstår

LLM:er använder språklig statistik för att producera svar om en verklighet som de egentligen inte förstår. Deras svar kan verka korrekta (med exempel på grammatik, semantik etc.) men ibland kan de vara rena nonsens. Dåligt tränad AI har inbyggda fördomar och blinda fläckar - vilket innebär att den kommer att försöka fylla i luckorna i försöket att besvara din fråga. Men de "luckor" som den kan komma med kan vara ganska världsfrånvända. 

Foto av Possessed Photography på Unsplash

Vissa människor har (ganska romantiskt) jämförde AI-hallucinationer med våra mänskliga drömmar, eftersom de på ett kreativt sätt sammanför till synes slumpmässiga data utan logisk grund. Dessa knasiga svar kan ha sina fördelar. De kan användas för att inspirera till "out of the box"-tänkande eller som utgångspunkt för skrivande, musik eller konst. Men de kan också vara skadliga. De kan ge upphov till falska nyheter och sprida falsk information, vilket naturligtvis kan få farliga konsekvenser. Du vill inte riskera AI-hallucinationer när det gäller självkörande bilar eller medicinska diagnoser! 

I ett försök att rädda AI:s rykte hos allmänheten för forskarna ett krig mot hallucinationer med metoder som tagits fram för att bekämpa dem. 

Hur du får bättre svar genom att ställa bättre frågor

En av dessa metoder är "Prompt Engineering". Det innebär att vi, användarna, måste tänka noga igenom hur vi formulerar de frågor vi ställer till LLM:erna. Det handlar om att fråga rätt fråga. En prompt är i princip det sammanhang och den uppsättning instruktioner som du ger en LLM, som ChatGPT, för att få ett lämpligt svar. En lyckad prompt innebär att du ger ett tydligt sammanhang och perspektiv på vad du frågar, ger AI-generatorn en "roll" och till och med beskriver hur du vill att svaret ska struktureras. 

Det handlar inte bara om att mata in några sökord i Google. För att få det bästa och mest exakta resultatet kan det ibland behövas flera uppmaningar. I grund och botten måste du ha full kontroll över din input för att styra din output, vilket är ett sätt att arbeta med det befintliga systemet utan att i grunden ändra sin programmering. Ju högre kvalitet på den uppmaning du skickar in, desto högre kvalitet på det svar du får ut. 

Foto av Igor Omilaev på Unsplash

Hur "Promt Engineering" relaterar till psykedelisk trippning

"Fascinerande grejer!" - man kan säga - "Men vad har det här med psykedelika att göra?!" Tja, inte mycket om jag ska vara ärlig, bortsett från åberopandet avhallucinationer. Men de metoder med vilka man kan hämma AI-hallucinationer har fått oss att fundera på hur vi påverkar våra egna, avsiktliga hallucinationer - dvs. psykedeliska resor. 

På många sätt är denna idé om att skräddarsy input för att säkerställa en bra output parallell med Avsiktsförklaringoch det övriga arbete vi utför för att förbered dig för en psykedelisk resa med högre doser. Men snarare än att göra det för att undvika "fel" svar (vissa kanske säger att det inte finns några felaktiga svar i en psykedelisk resa!) vi gör det för att få den mest djupgående och generativa upplevelse vi kan. Att fastställa din avsikt är på sätt och vis "frågan". 'Inställning och inställning' är som sammanhanget. 

Skapat via deepdreamgenerator

Till skillnad från AI är våra hallucinationer, drömmar och sinnesrörelser oftast något positivt, men om du är fokuserad inför en resa kan det hjälpa dig att få ut mesta möjliga av den. Se till att du mår bra mentalt och att du befinner dig i en säker och bekväm miljö. Formulera dina frågor/avsikter/idéer för en snällt universumsnarare än en Google-skrapning. 

Visioner av vårt inre jag

Att hallucinera är en mycket mänsklig sak - att manifestera visioner av våra inre önskningar, rädslor, underverk eller till och med den dumma video du tittade på Youtube förra veckan. Allt inom oss påverkar vad vi ser och upplever när vi reser. Ingång, utmatning. Så medan AI-hallucinationer definitivt inte är i samma liga, eller ens på samma slätt (i alla fall inte än!) är det möjligt att hämta inspiration från vårt sätt att närma oss dem, när det gäller våra egna försök att psykedelisk intelligens