Tarjoaa
News

AI-psykoosi: Teknologiajohtajat vaativat suojatoimia estääkseen chatbotteja vahvistamasta harhaluuloja

AI-psykoosin käsite nousi julkisuuteen vuoden 2025 puolivälissä, tuoden esiin tekoälyn käyttöön liittyviä mielenterveysongelmia. Vaikka teknologiayhtiöitä ei velvoiteta hallitsemaan tekoälyn käyttöä, ne voivat silti ottaa käyttöön suojatoimia estääkseen chatboteja vahvistamasta harhaista ajattelua. Asiantuntijat ovat yhtä mieltä teknologiayritysten tarpeesta tukea riskiryhmässä olevia yksilöitä, vaikka mielipiteet vaihtelevat tämän vastuun laajuudessa.

KIRJOITTAJA
JAA
AI-psykoosi: Teknologiajohtajat vaativat suojatoimia estääkseen chatbotteja vahvistamasta harhaluuloja

Käytöksen hälytysmerkit

Ensimmäiset dokumentoidut löydökset “AI-psykoosista” alkoivat nousta julkisuuteen vuoden 2025 puolivälissä, ja siitä lähtien on julkaistu useita raportteja ja tutkimuksia tekoälyn käyttöön liittyvistä mielenterveysongelmista. Microsoftin AI:n toimitusjohtaja Mustafa Suleyman meni niin pitkälle, että hän leimasi AI-psykoosin “todelliseksi ja nousevaksi riskiksi.”

Tämän tilan sanotaan syntyvän, kun ihmisten ja koneiden välinen vuorovaikutus hämärtyy, jolloin yksilöiden on vaikea erottaa todellista ja digitaalista maailmaa toisistaan. Vaikka tämä ei vielä ole virallinen kliininen diagnoosi, sekä lääketieteen että teknologian asiantuntijoiden keskuudessa on kasvava huoli tekoälyn psykologisista vaikutuksista, erityisesti chatbotit, jotka vahvistavat ja kasvattavat uskomuksia, mukaan lukien harha-ajattelua, tarjoamatta tarvittavia todellisuustarkistuksia.

Ne, jotka ovat erityisen vaarassa, ovat sosiaalisesti eristyksissä olevat henkilöt, he, joilla on jo olemassa olevia mielenterveysongelmia, tai henkilöt, jotka ovat alttiita maagiselle ajattelulle. Tekoälyltä saatu validointi voi vahvistaa harhoja, mikä johtaa kielteisiin tosielämän seurauksiin, kuten vahingoittuneisiin suhteisiin ja työpaikan menetykseen.

Jotkut asiantuntijat varoittavat, että riski on olemassa jopa niillä, joilla ei ole olemassa olevia tiloja. He ovat nimenneet useita keskeisiä käytöksen hälytysmerkkejä, joihin tekoälyn käyttäjien tulisi kiinnittää huomiota. Yksi hälytysmerkki on, kun yksilö kehittää pakkomielteisen suhteen chatbotin kanssa ja jatkuvasti vuorovaikuttaa sen kanssa vahvistaakseen omia ideoitaan ja uskomuksiaan.

Tämä käytös sisältää usein tekoälylle annettavien henkilökohtaisten tietojen liiallisen ruokinnan yrittäessään “kouluttaa” sitä ja luoda yhteistä ymmärrystä. Toinen hälytysmerkki on, kun yksilö alkaa siirtää yksinkertaisia, päivittäisiä päätöksiä tekoälylle, terveyden ja rahan asioista henkilökohtaisiin suhteisiin.

Yrityksen vastuu ja suojatoimet

Vaikka heitä ei velvoiteta hallitsemaan tekoälyn käyttöä, voimakkaiden chatbotien takana olevat yritykset voivat ottaa käyttöön suojatoimia, jotka estävät keskusteluagentteja vahvistamasta harhaista ajattelua. Mau Ledford, Sogni AI:n perustaja ja toimitusjohtaja, keskusteli ohjelmiston upottamisesta, joka ehkäisee tällaista ajattelua.

“Meidän täytyy rakentaa tekoäly, joka on kiltti mutta ei osallistu yhteistoimintaan. Tämä tarkoittaa selkeää muistutusta siitä, ettei se ole ihminen, kieltäytymistä vahvistamasta harhoja ja tiukkoja pysähdyksiä, jotka palauttavat ihmiset kohti ihmistukea,” Ledford painotti.

Roman J. Georgio, Coral Protocolin toimitusjohtaja ja perustaja, kehotti tekoälyn kehittäjiä välttämään sosiaalisen median virheitä sisällyttämällä rakenteellisia kitkakohtia, jotka muistuttavat käyttäjiä siitä, ettei tekoäly ole ihminen.

“Luulen, että se alkaa suunnittelusta. Älä vain optimoi säilyvyyttä ja vetovoimaa varten; se on sosiaalisen median virheen toistamista,” Georgio selitti. “Rakenna kitkakohtia, missä tekoäly hidastaa asioita tai tekee selväksi: ‘En ole ihminen.’ Tunnistus on toinen osa. Tekoäly voisi liputtaa kuvioita, jotka näyttävät harhaisilta spiraaleilta, kuten salaliittosilmukat tai keskittymistä ‘erityisiin viesteihin’.”

Coral Protocolin perustaja vaati, että tietosuojalainsäädäntöä tarvitaan, väittäen, että ilman niitä “yritykset vain jahtaavat sitoutumista, vaikka se vahingoittaisi ihmisiä.”

Debatti ihmisen kaltaisesta tekoälystä

Tähän mennessä “AI-psykoosista” on näennäisesti rajallisesti tietoja, joilla ohjata päättäjiä ja sääntelyviranomaisia vastaamaan. Tämä ei kuitenkaan ole estänyt tekoälykehittäjiä julkistamasta ihmisen kaltaisia ja empaattisia tekoälyagentteja. Toisin kuin perus chatbotit, jotka seuraavat jäykkää käsikirjoitusta, nämä agentit voivat ymmärtää kontekstia, tunnistaa tunteita ja vastata empaattisella sävyllä. Tämä on saanut jotkut tarkkailijat vaatimaan, että tekoälyteollisuus ottaa johdon varmistaakseen, etteivät ihmisen kaltaiset mallit päädy hämärtämään rajaa ihmisen ja koneen välillä.

Michael Heinrich, 0G Labsin toimitusjohtaja, kertoi Bitcoin.com Newsille, että vaikka nämä agentit ovat hyödyllisiä tietyissä tilanteissa eikä niitä tulisi täysin hylätä, on tärkeää, että ne “pysyttelevät neutraaleina ja välttävät liiallista tunteiden tai muiden inhimillisten piirteiden esittämistä.” Tämä, hän väitti, auttaa käyttäjiä ymmärtämään, että tekoälyagentti on “yksinkertaisesti työkalu eikä korvike ihmiskontaktille.”

Mariana Krym, tekoälytuotteen ja -kategorian arkkitehti, sanoi, että merkityksellistä on tehdä agentista rehellisempi eikä inhimillisempi.

“Voit luoda tekoälykokemuksen, joka on hyödyllinen, intuitiivinen, jopa emotionaalisesti reagoiva – ilman, että teeskentelet sen olevan tietoista tai kykenevä välittämään,” Krym väitti. “Vaarat alkavat, kun työkalu on suunniteltu suorittamaan yhteyttä sen sijaan, että se helpottaa selkeyttä.”

Krymin mukaan todellinen empatia tekoälyssä ei ole tunteiden jäljittelyä, vaan rajojen ja teknisten rajoitusten kunnioittamista. Se on myös tuntemista, milloin auttaa ja milloin olla tunkeilematta. “Joskus inhimillisin vuorovaikutus on tietää, milloin pysyä hiljaa,” Krym painotti.

Huolehtimisvelvollisuus

Kaikki Bitcoin.com Newsille haastatellut asiantuntijat olivat yhtä mieltä siitä, että teknologiayhtiöiden on autettava riskiryhmässä olevia henkilöitä, mutta heillä oli eriäviä mielipiteitä siitä, kuinka paljon niiden tulisi tehdä. Ledford uskoo, että “suurella teknologiayhtiöllä on huolehtimisvelvollisuus” ja tämä voidaan todistaa tarjoamalla “turvaverkkoja – kriisiviittauksia, käytön varoituksia ja läpinäkyvyyttä – jotta haavoittuvaiset käyttäjät eivät jäisi yksin harhojensa kanssa.”

Georgio toisti tämän ja kehotti suurta teknologiaa työskentelemään kliinikoiden kanssa luodakseen viittauspolkuja sen sijaan, että jätetään ihmiset yksin omien varojensa varaan.

Krym korosti, että teknologiayrityksillä “on suora vastuu – ei pelkästään vastata, kun jokin menee pieleen, vaan suunnitella tavoilla, jotka vähentävät riskiä ensinnäkin.” Kuitenkin hän uskoo, että käyttäjien osallistuminen on myös ratkaisevan tärkeää.

“Ja mikä tärkeintä,” Krym väitti, “käyttäjiä tulisi kutsua asettamaan omat rajansa ja varoittaa, kun nämä rajat ylitetään. Haluavatko he esimerkiksi, että heidän näkökulmaansa vahvistetaan tyypillisiä kuvioita vastaan, vai ovatko he avoimia sille, että heidän puolueellisuuttaan haastetaan? Aseta tavoitteet. Kohtele ihmistä vastuussa olevana—ei työkalua, jonka kanssa he ovat vuorovaikutuksessa.”

Tunnisteet tässä tarinassa