Toetab
News

AI psühhoos: Tehnoloogia liidrid kutsuvad üles rakendama ettevaatusabinõusid, et takistada vestlusrobotitel luulude kinnitamist

Tehisintellekti psühhoosi kontseptsioon tõusis avalikkuse ette 2025. aasta keskpaigas, tuues esile vaimse tervise probleemid, mis on seotud AI kasutamisega. Kuigi tehnoloogiaettevõtted ei ole kohustatud AI kasutamist kontrollima, saavad nad siiski rakendada kaitsemeetmeid, et takistada vestlusrobotitel luululise mõtlemise tugevdamist. Eksperdid nõustuvad, et tehnoloogiaettevõtted peaksid toetama riskirühma kuuluvaid isikuid, kuigi arvamused selle vastutuse ulatuse kohta varieeruvad.

KIRJUTAS
JAGA
AI psühhoos: Tehnoloogia liidrid kutsuvad üles rakendama ettevaatusabinõusid, et takistada vestlusrobotitel luulude kinnitamist

Käitumuslikud ohumärgid

Esimesed dokumenteeritud leiud teemal “AI psühhoos” hakkasid avalikkuse ette kerkima 2025. aasta keskpaigas ja sellest ajast alates on avaldatud mitmeid raporteid ja uuringuid AI kasutamisega seotud vaimse tervise probleemide kohta. Microsoft AI tegevjuht Mustafa Suleyman läks nii kaugele, et nimetas AI psühhoosi “reaalseks ja esilekerkivaks riskiks”.

Seda seisundit väidetakse tekkivat siis, kui inimeste ja masinate vaheline piir hägustub, muutes raskeks eristada reaalset ja digitaalset maailma. Kuigi see ei ole veel ametlik kliiniline diagnoos, on meditsiini- ja tehnoloogiaekspertide seas kasvav mure AI psühholoogiliste mõjude pärast, eriti vestlusrobotite puhul, mis kinnitavad ja võimendavad uskumusi, sealhulgas luululist mõtlemist, ilma vajalike reaalsuskontrollide pakkumiseta.

Kõige suuremas ohus on sotsiaalselt isoleeritud inimesed, kellel on esinenud vaimse tervise probleeme või kes on altid maagilisele mõtlemisele. AI kinnitused võivad luulusid tugevdada, põhjustades reaalses maailmas negatiivseid tagajärgi, nagu suhete kahjustamine ja töö kaotamine.

Mõned eksperdid hoiatavad, et ka need, kellel ei ole eelnevaid tingimusi, on ohus. Nad on toonud esile mitmed võtmetähtsusega käitumuslikud ohumärgid, millele AI kasutajad peaksid tähelepanu pöörama. Üks ohumärk on see, kui isik arendab kinnisidee vestlusrobotiga ja suhtleb sellega pidevalt, et tugevdada oma ideid ja uskumusi.

See käitumine hõlmab sageli AI-le liialdatud isiklike üksikasjade edastamist, et seda “treenida” ja luua vastastikuse mõistmise tunne. Teine ohumärk on see, kui isik hakkab lihtsaid igapäevaseid otsuseid AI-le delegeerima, alates tervisest ja rahast kuni isiklike suheteni.

Korporatiivne vastutus ja kaitsemeetmed

Kuigi nad ei ole kohustatud kontrollima, kuidas AI-d kasutatakse, saavad võimsate vestlusrobotite taga olevad ettevõtted rakendada kaitsemeetmeid, mis takistavad vestlusagentidel luululise mõtlemise tugevdamist. Sogni AI kaasasutaja ja tegevjuht Mau Ledford arutas tarkvara integreerimist, mis takistab sellist mõtlemist.

“Me peame looma AI, mis on lahke ilma kaasmängimiseta. See tähendab, et on vaja selgeid meeldetuletusi, et see ei ole inimene, keeldumist luulude kinnitamisest ja tugevaid peatusi, mis juhivad inimesed tagasi inimeste toetuse juurde,” rõhutas Ledford.

Coral Protocoli tegevjuht ja kaasasutaja Roman J. Georgio kutsus AI arendajaid vältima sotsiaalmeedia vigu, lisades sisseehitatud hõõrdumispunkte, mis tuletavad kasutajatele meelde, et AI ei ole inimene.

“Ma arvan, et see algab disainist. Ärge optimeerige ainult seotuse ja kleepuvuse jaoks; see kordaks sotsiaalmeedia viga,” selgitas Georgio. “Looge hõõrdumispunkte, kus AI aeglustab asju või teeb selgeks: ‘Ma ei ole inimene.’ Tuvastamine on teine osa. AI võiks märgistada mustreid, mis näevad välja nagu luululised spiraalid, näiteks vandenõuteooriate silmused või kinnisideed ‘eriliste sõnumite’ vastu.”

Coral Protocoli kaasasutaja rõhutas ka, et on vaja andmekaitset reguleerivaid seadusi, väites, et nende puudumisel “jälitavad ettevõtted lihtsalt seotust, isegi kui see kahjustab inimesi.”

Debatt inimliku AI üle

Siiani on “AI psühhoosi” kohta vähe andmeid, mis aitaksid seadusandjal ja regulaatoritel vastata. Kuid see pole takistanud AI arendajaid esitlemast inimlikke ja empaatilisi AI agente. Erinevalt põhivestlusrobotitest, mis järgivad jäika stsenaariumi, oskavad need agendid mõista konteksti, tuvastada emotsioone ja vastata tooniga, mis tundub empaatiline. See on ajendanud mõningaid vaatlajaid kutsuma AI-tööstust juhtima inimlike mudelite tagamist, et need ei hägustaks inimese ja masina vahelist piiri.

0G Labi tegevjuht Michael Heinrich ütles Bitcoin.com News’ile, et kuigi need agendid on teatud olukordades kasulikud ja neid ei tohiks täielikult tagasi lükata, on hädavajalik, et nad “jääksid neutraalseks ja väldiksid liigse emotsiooni või muude inimlike omaduste kuvamist.” See, väitis ta, aitab kasutajatel mõista, et AI agent on “lihtsalt tööriist ja mitte inimese suhtluse asendaja.”

Tehisintellekti toodete ja kategooriate arhitekt Mariana Krym ütles, et oluline on muuta agent ausamaks, mitte inimlikumaks.

“Sa võid luua AI-kogemuse, mis on abivalmis, intuitiivne ja isegi emotsionaalselt reageeriv—ilma teesklemata, et see on teadlik või hoolimisvõimeline,” väitis Krym. “Oht algab siis, kui tööriist on kavandatud suhtluse etendamiseks, mitte selguse hõlbustamiseks.”

Krymi sõnul pole tegelik empaatia AI-s mitte tunnete jäljendamine, vaid piiride ja tehniliste piirangute austamine. Samuti teadmine, millal aidata ja millal mitte sekkuda. “Mõnikord on kõige inimlikum suhtlemine teadmine, millal vaikselt olla,” kinnitas Krym.

Hoolitsuskohustus

Kõik Bitcoin.com News’iga intervjuu andnud eksperdid olid ühel meelel, et tehnoloogiaettevõtted peaksid aitama riskirühma kuuluvaid isikuid, kuid erinesid selles, kui ulatuslikult nad seda tegema peaksid. Ledford usub, et “suur tehnoloogia kannab hoolitsuskohustust” ja võib seda tõestada “turvavõrkude—kriisidele suunamise, kasutushoiatuste ja läbipaistvuse—pakkumisega, et haavatavad kasutajad ei jääks oma luuludega üksi.”

Georgio andis sarnast tagasi, kutsudes suurt tehnoloogiat tegema koostööd kliinikutega, et luua suunamistee, selle asemel, et jätta inimesed omapäi.

Krym rõhutas, et tehnoloogiafirmadel on “otsene vastutus—mitte ainult reageerimiseks, kui midagi läheb valesti, vaid riskide vähendamiseks disainiprotsessis.” Kuid ta usub ka, et kasutajate kaasamine on oluline.

“Ja mis veelgi olulisem,” väitis Krym, “kasutajatele tuleks anda võimalus ka oma piire seada ja neile tuleks märku anda, kui need piirid on ületatud. Näiteks, kas nad tahavad, et nende vaatenurka kinnitatakse tüüpiliste mustrite järgi, või on nad avatud oma kallutatuse vaidlustamisele? Seadke eesmärgid. Kohelge inimest selle juhina, mitte tööriista, millega nad suhtlevad.”