În romanul său iconic, inspirat de Blade Runner Androizii visează la oi electrice, autorul Philip K. Dick a reflectat asupra întrebărilor etice și filosofice care apar atunci când ființele artificiale dezvoltă o conștiință asemănătoare celei umane. Romanul analizează dacă o entitate creată de om este capabilă să dobândească caracteristicile sensibilității, cum ar fi conștiința de sine, sentimentele și capacitatea de a percepe. Ce ar însemna acest lucru pentru granițele care există între inteligența umană și cea artificială?

În timp ce noi suntem (sperăm!) încă departe de tehnologia care se întoarce împotriva noastră, întrebările ridicate de Dick în această carte sunt, astăzi, mai relevante ca niciodată. 

Acces fără precedent la inteligența artificială

Acesta este, desigur, momentul în care apar halucinațiile AI. Cu influxul recent de modele lingvistice mari (LLMs) cum ar fi ChatGPT, am ajuns față în față cu inteligența artificială într-un mod care nu a mai fost posibil până acum. Beneficiile și dezavantajele sunt atât numeroase, cât și controversate. Dar unul dintre cele mai fascinante/frustrante/înfricoșătoare/ amuzante (în funcție de perspectiva dvs.) lucruri care au rezultat din această lansare tehnologică au fost halucinațiile AI. Aceste "halucinații" sunt atunci când LLM-urile prezintă informații false, înșelătoare sau iraționale ca și cum ar fi fapte. Mulți utilizatori au constatat că răspunsurile la întrebările lor furnizate de aceste sisteme sunt în mod demonstrabil false. Acest lucru pare să se întâmple, în general, atunci când un LLM nu primește date de o calitate suficient de ridicată sau un context suficient pentru a lucra. 

Poate o mașină să aibă halucinații?

Termenul care a fost ales pentru acest microfon, "halucinații", este unul interesant. La început poate părea paradoxal, având în vedere că halucinațiile sunt asociate în mod tradițional cu creierele umane sau animale, nu cu mașinării reci și dure. Totuși, dintr-un unghi metaforic, halucinație se dovedește a fi un termen destul de precis pentru a descrie aceste disfuncționalități, mai ales în cazurile de recunoaștere a imaginilor și a modelelor. 

Știți cum vedeți figuri în nori sau chipuri în obiecte inanimate? Acesta este un fenomen uman foarte natural numit pareidolia. Dar halucinațiile AI ar putea fi descrise ca fiind similare, căutând modele recognoscibile într-o mulțime de date. Interpretările lor eronate se pot datora mai multor factori, inclusiv prejudecățile/inacuratețea datelor de formare, supraajustarea și complexitatea ridicată a modelului. 

O realitate pe care ei nu o înțeleg

LLM-urile folosesc statistici lingvistice pentru a produce răspunsuri despre o realitate pe care nu o înțeleg de fapt. Răspunsurile lor pot părea corecte (cu exemplificări gramaticale, semantice etc.) dar uneori acestea pot fi complet absurde. Inteligența artificială prost antrenată va avea prejudecăți inerente și puncte oarbe - ceea ce înseamnă că va încerca să umple golurile în încercarea de a răspunde la întrebarea dvs. Cu toate acestea, "golurile" cu care poate veni pot fi destul de ieșite din comun. 

Fotografie realizată de Possessed Photography pe Unsplash

Unii oameni au (mai degrabă romantic) a comparat halucinațiile AI cu visele noastre umane, în sensul că acestea îmbină în mod creativ date aparent aleatorii, fără nicio bază logică. Aceste răspunsuri nebunești pot avea avantajele lor. Ele pot fi folosite pentru a inspira o gândire "ieșită din comun" sau ca puncte de plecare pentru scris, muzică sau artă. Cu toate acestea, ele pot fi și dăunătoare. Ele pot prolifera știrile false și pot răspândi informații false, ceea ce poate avea, evident, consecințe periculoase. Nu vreți să riscați halucinațiile AI atunci când vine vorba de mașini care se conduc singure sau de diagnostice medicale! 

În încercarea de a salva reputația inteligenței artificiale în fața publicului, oamenii de știință duc un război împotriva halucinațiilor prin metode concepute pentru a le combate. 

Cum puneți întrebări mai bune și obțineți răspunsuri mai bune

Una dintre aceste metode este "Prompt Engineering". Aceasta ne obligă pe noi, utilizatorii, să ne gândim cu atenție la modul în care formulăm întrebările pe care le punem LLM-urilor. Este vorba despre a cere corect întrebare. Un prompt este, practic, contextul și setul de instrucțiuni pe care le oferiți unui LLM, precum ChatGPT, pentru a obține un răspuns adecvat. Un prompt de succes implică includerea unui context și a unei perspective clare asupra a ceea ce întrebați, oferind generatorului AI un "rol" și chiar schițând modul în care doriți ca răspunsul să fie structurat. 

Nu este vorba doar de introducerea unor cuvinte-cheie în Google. Pentru cel mai bun și mai precis rezultat, uneori pot fi necesare mai multe solicitări. Practic, trebuie să dețineți controlul deplin asupra intrărilor pentru a vă ghida rezultatele, ceea ce reprezintă un mod de lucrul cu sistemul existent fără a-și schimba intrinsec programarea. Cu cât promptul pe care îl introduceți este de calitate superioară, cu atât răspunsul pe care îl veți primi va fi de calitate superioară. 

Fotografie de Igor Omilaev pe Unsplash

Cum se raportează "ingineria promt" la călătoria psihedelică

"Fascinant!" - ai putea spune... "Dar ce legătură are asta cu psihedelicele?!" Ei bine, nu prea multe, ca să fiu sincer, în afară de invocareahalucinații. Dar metodele prin care puteți inhiba halucinațiile IA ne-au făcut să ne gândim la modul în care ne influențăm propriile halucinații intenționate - de exemplu, călătoriile psihedelice. 

În multe privințe, această idee de adaptare a datelor de intrare pentru a asigura un rezultat bun este paralelă cu stabilirea intențiilor, precum și celelalte activități pe care le desfășurăm pentru pregătiți-vă pentru o călătorie psihedelică cu doze mai mari. Cu toate acestea, mai degrabă decât să o facă pentru a evita răspunsurile "greșite (unii ar putea spune că nu există răspunsuri greșite într-o călătorie psihedelică!) o facem pentru a obține cea mai profundă și generativă experiență posibilă. Stabilirea intenției este, într-un fel, 'întrebarea'. 'Set și setare' este ca și contextul. 

Creat prin deepdreamgenerator

În timp ce, spre deosebire de inteligența artificială, halucinațiile, visele și rătăcirile minții noastre sunt de obicei un lucru pozitiv, cultivarea unui nivel de concentrare pentru o călătorie vă poate ajuta să profitați la maximum de ea. Asigurați-vă că vă simțiți bine psihic și că vă aflați într-un mediu sigur și confortabil. Încadrează-ți întrebările/intențiile/ideile pentru o univers bun, mai degrabă decât un scrape Google. 

Viziuni ale sinelui nostru interior

Halucinația este un lucru foarte uman - să manifestăm viziuni ale dorințelor noastre interioare, temeri, minuni sau chiar videoclipul prostesc pe care l-ați urmărit pe Youtube săptămâna trecută. Totul în noi influențează ceea ce vedem și experimentăm atunci când călătorim. Introducere, ieșire. Deci, în timp ce halucinațiile AI nu sunt cu siguranță în aceeași ligă, sau chiar pe aceeași planetă (cel puțin, nu încă!) este posibil să ne inspirăm din modul în care le abordăm, în ceea ce privește propriile noastre incursiuni în inteligență psihedelică