Kan en robot være en anstendig terapeut?

Ellie-terapeut bot Talkspace-konferanse

Vi har sett avansert kunstig intelligens som er i stand til å føre en samtale som Siri, IBMs Watson og Microsofts Cortana. Men kan en hvilken som helst robot - til og med noe designet kun for psykoterapi og mer avansert enn de nevnte AI-ene - være en anstendig terapeut?





Folk har brukt bots for terapi, men det er ikke klart om de kunne overgå menneskelige terapeuter i vår levetid. Å se på fortid, nåtid og mulig fremtid for roboter som terapeuter vil gi deg en ide om hvor effektive de kan være.

Et tidlig eksempel på en robot som prøver å være terapeut

ELIZA er et av de tidligste og mest kjente programmene som forsøkte å fungere som terapeut. MIT-professor og datavitenskapsmann Joseph Weizenbaum designet ELIZA for å gi Rogerian psykoterapi.





Fordi Rogeriansk psykoterapi primært oppfordrer klienter til å snakke mer enn å delta i en diskusjon, var ELIZAs begrensede samtalefunksjoner nok til å overbevise noen om at det var menneskelig og hjelpe dem å føle seg litt bedre om problemene sine. Ikke desto mindre kunne ELIZA ikke gi noe som kan sammenlignes med terapi med en menneskelig terapeut.

For å demonstrere ELIZAs begrensninger genererte jeg følgende transkripsjon ved hjelp av en moderne ELIZA-simulator :



ELIZA: Hei, jeg er Eliza.
Talkspace: Hei Eliza, jeg har følt meg ensom og deprimert i det siste, men jeg er ikke sikker på hvorfor. Kan du hjelpe meg med å finne ut av dette og føle meg bedre?
ELIZA: Kanskje du vil være i stand til å hjelpe deg med å finne ut av dette og føle deg bedre?

Legg merke til hvordan ELIZA tar teksten min og omformulerer den, setter fokuset tilbake på meg og oppfordrer meg til å snakke mer enn å snakke. Denne tilnærmingen fungerer for noen kunder, men blir raskt frustrerende og ubrukelig for andre.

Da AI og chatbots avanserte, ble de i stand til mer overbevisende samtaler. Enten programmererne designet dem for terapi for ikke, forbedret teknologien gjorde det mulig for dem å gi mye bedre terapi enn ELIZA. Likevel er moderne roboter generelt ikke intelligente nok til å konkurrere med en menneskelig terapeut.

hva brukes lamictal til

Moderne roboter som kan gi grunnleggende terapi

Ved å lage større databaser med svar å velge mellom og utvikle programmer som kunne snakke om seg selv, skapte programmerere roboter som lettere kunne passere som terapeuter.

Under den kliniske konferansen Talkspace, Fremtiden for terapi , USC-professor og forskningsleder for virtuelle mennesker, Jonathan Gratch demonstrert hvordan moderne former for kunstig intelligens kan gi klinisk screening og grunnleggende terapi. Gratch introduserte Ellie, en AI han brukte til å 'fremkalle indikatorer på depresjon' under en studie.

Jonathan Gratch Ellie Future of Therapy Conference
Gratch er på høyre side av bildet.

Her er noe av dialogen mellom en deltaker i Gratchs studie og Ellie:

Ellie: Så hvordan har du det i dag?
Deltaker: Jeg har det bra.
Ellie: Det er bra. Hvor er du fra opprinnelig?
Deltaker: Jeg er fra Los Angeles.
Ellie: Å, jeg er selv fra LA.

I motsetning til ELIZA klarte Ellie å snakke om seg selv og generere en samtale i stedet for bare å omformulere svarene hun fikk. Programmet gjenkjenner ansiktsuttrykk og analyserer lyd og holdning, ifølge Gratch. Den bruker denne analysen for å formulere responsen og justere tonen.

hvordan sjekke deg inn på et mentalsykehus

Ikke desto mindre innrømmet Gratch at Ellie var langt fra å kunne gi den slags forståelse en menneskelig terapeut kunne.

'Det forstår ikke dypt hva du snakker om,' sa Gratch. 'Jeg ser oss ikke i stand til med teknologi på kort sikt å være i stand til å forstå en persons mål, motiver og behov.'

Ellie ble implementert på en trygg måte. Det kan imidlertid være negative konsekvenser når en bot ikke forstår følelser og filtrerer informasjon under sensitive, høye innsatssamtaler som for eksempel mellom terapeuter og klienter.

Et eksempel på dette var Hånd , en bot Microsoft designet for å samhandle med mennesker og lære av dem, og stadig endre svarene og oppførselen sin basert på teksten den mottok. Tays skaperne hadde den fryktelige ideen om å slippe den løs på Twitter, der den kunne samhandle med hvem som helst på Internett.

Det begynte uskyldig, med Tay som brukte morsom slang og vitser. Men fordi Twitter er fullt av troll, endte det med at Tay spurte rasistiske kommentarer og benektet Holocaust.

Tay Twitter-side
Microsoft stengte Tay og beskyttet tweets etter hendelsen.

Terapeutboter er mer følsomme, men det er fortsatt risikoen for å motta ustabile responser fra klienter og forverre situasjonen i stedet for å trøste dem.

Vil roboter overgå menneskelige terapeuter i nær fremtid?

Roboter er mange tiår unna å overgå kreativ tenkning og empatiske evner hos terapeuter. Det er også muligheten for at de aldri vil kunne konkurrere med terapeuter. De er et nyttig klinisk verktøy, men bare en kjøtt- og blodterapeut kan skape det terapeutiske forholdet som er nødvendig for at en klient kan gjøre betydelige fremskritt.