Er AI Chatbots fremtidens terapeuter?

PexelsLiza Summer

Kilde: Pexels/Liza Summer

kunne kunstig intelligens chatbots være fremtidens terapeuter? ChatGPT, en tekstgenererende samtale-chatbot laget ved hjelp av OpenAIs kraftige tredjegenerasjons språkbehandlingsmodell GPT-3, har gjenoppstått dette tiår gamle spørsmålet.

GPT-3, en av flere språkmodeller, ble introdusert i 2020, og dens forgjengere år tidligere. Det fikk mer utbredelse Merk følgende da OpenAI ga ut en offentlig forhåndsvisning av ChatGPT som en del av forskningsfasen. GPT-3 er en tredje generasjons generativ ferdigtrent transformator, en nevrale nettverksmaskinlæringsmodell trent på enorme mengder samtaletekst fra internett og raffinert med opplæring fra menneskelige anmeldere.

GPT-3 har blitt brukt på mange måter på tvers av bransjer: å skrive et teaterstykke produsert i Storbritannia, lage en tekstbasert eventyrspill, bygg apper for ikke-kodere, eller generer phishing-e-poster som en del av en studie om skadelige brukssaker. I 2021 opprettet en spillutvikler en chatbot som etterlignet hans avdøde forlovede til OpenAI la ned prosjektet.

AI chatbots er lovende for visse typer terapi som er mer strukturerte, konkrete og ferdighetsbaserte (f.eks. kognitiv atferdsmessig terapi, dialektisk atferdsterapi eller helse coaching).

Vaidyam, et al. 2019

Kilde: Vaidyam, et al. 2019

Forskning har vist at chatbots kan lære folk ferdigheter og veilede dem til å stoppe røyking, spis sunnere og tren mer. En chatbot SlimMe AI med kunstig empati hjalp folk med å gå ned i vekt. Under COVID-pandemien utviklet Verdens helseorganisasjon virtuelle mennesker og chatboter for å hjelpe folk å stoppe røyking. Mange selskaper har laget chatbots for støtte, inkludert Woebot, laget i 2017, basert på kognitiv atferdsterapi. Andre chatbots leverer veiledet meditasjon eller overvåke ens humør.

Imidlertid kan visse typer terapi, som psykodynamisk, relasjonell eller humanistisk terapi, være vanskeligere å levere via chatbots fordi det er uklart hvor effektive disse terapiene kan være uten mennesket element.

Potensielle fordeler for Chatbot-terapeuter

  • Skalerbarhet, tilgjengelighet, rimelig. Virtuell chatbot-terapi, hvis den gjøres effektivt, kan bidra til å bringe psykiske helsetjenester til flere mennesker, på deres egen tid og i deres eget hjem.
  • Folk kan være mindre selvbevisste og mer imøtekommende overfor en chatbot. Noen studier fant at folk kan føle seg mer komfortable med å avsløre privat eller pinlig informasjon til chatbots.
  • Standardisert, enhetlig og sporbar levering av omsorg. Chatbots kan tilby et standardisert og mer forutsigbart sett med svar, og disse interaksjonene kan gjennomgås og analyseres senere.
  • Flere modaliteter. Chatbots kan trenes til å tilby mange terapistiler utover det en individuell menneskelig terapeut kan tilby. En algoritme kan bidra til å bestemme hvilken type terapi som vil fungere best for hvert enkelt tilfelle.
  • Tilpassing av terapi. ChatGPT genererer samtaletekst som svar på tekstmeldinger og kan huske tidligere meldinger, noe som gjør det mulig å bli en personlig terapeut.
  • Tilgang til brede psykoedukasjonsressurser. Chatbots kan trekke fra og koble klienter til store digitalt tilgjengelige ressurser, inkludert nettsteder, bøker eller nettverktøy.
  • Forsterkning eller samarbeid med menneskelige terapeuter. Chatbots kan øke terapien i sanntid ved å gi tilbakemeldinger eller forslag, for eksempel forbedring empati.

Potensielle begrensninger og utfordringer for Chatbot-terapeuter

Chatbot-terapeuter møter barrierer som er spesifikke for menneske-AI-interaksjon.

  • Autentisitet og empati. Hva er menneskelige holdninger til chatbots, og vil de være en barriere for helbredelse? Vil folk savne den menneskelige forbindelsen i terapi? Selv om chatboter kunne tilby empatisk språk og de riktige ordene, dette alene er kanskje ikke tilstrekkelig. Forskning har vist at mennesker foretrekker interaksjon mellom mennesker i visse emosjonelle situasjoner, for eksempel å lufte ut eller uttrykke frustrasjon eller sinne. EN 2021 studere fant ut at folk var mer komfortable med et menneske over en chatbot avhengig av hvordan de følte det: Når folk var sinte, var de mindre fornøyd med en chatbot.

    Folk føler seg kanskje ikke like forstått eller hørt når de vet at det ikke er et faktisk menneske på slutten av samtalen. Den "aktive ingrediensen" i terapi kan stole på menneske-til-menneske-forbindelsen - et menneske som vitner om ens vanskeligheter eller lidelse. AI-erstatning vil sannsynligvis ikke fungere i alle situasjoner.

  • Timing og nyanserte interaksjoner. Mange terapistiler krever funksjoner utover empati, inkludert en godt timet balanse mellom utfordring og støtte. Chatbots er begrenset til tekstsvar og kan ikke gi uttrykk gjennom øyekontakt og kroppsspråk. Dette kan være mulig med AI-drevne "virtuelle menneskelige" eller "menneskelige avatarer"-terapeuter, men det er ukjent om virtuelle mennesker kan gi samme nivå av komfort og tillit.
  • Vanskeligheter med ansvarlighet og oppbevaringsrater. Folk kan være mer sannsynlig å dukke opp og være ansvarlige overfor menneskelige terapeuter enn chatbots. Brukerengasjement er en stor utfordring med apper for psykisk helse. Estimater viser at bare 4 % av brukerne som laster ned en mental helse-app fortsetter å bruke appen etter 15 dager, og bare 3 prosent fortsetter etter 30 dager. Vil folk møte opp regelmessig til chatbot-terapeuten sin?
  • Komplekse, høyrisikosituasjoner som f.eks selvmord vurdering og krise ledelse ville ha nytte av menneskelig dømmekraft og tilsyn. I høyrisikotilfeller er AI-forsterkning med menneskelig tilsyn tryggere enn erstatning med AI. Det er åpne etiske og juridiske spørsmål angående ansvaret til defekt AI - hvem vil være ansvarlig hvis en chatbot-terapeut ikke klarer å vurdere eller håndtere en akutt krise på riktig måte eller gir feil veiledning? Vil AI bli opplært til å flagge og varsle fagfolk om situasjoner med potensiell overhengende risiko for skade på seg selv eller andre? Forsinker eller avskrekker det å stole på en chatbot-terapeut folk fra å søke hjelpen de trenger?
  • Økt behov for brukerdatasikkerhet, personvern, åpenhet og informert samtykke. Psykisk helsedata krever et høyt nivå av beskyttelse og konfidensialitet. Mange apper for psykisk helse er ikke nåværende om hva som skjer med brukerdata, inkludert når data brukes til forskning. Åpenhet, sikkerhet og tydelig informert samtykke vil være nøkkelfunksjoner for enhver chatbot-plattform.
  • Potensial skjult partiskhet. Det er viktig å være på vakt mot underliggende skjevheter i treningsdataene til disse chatbotene og finne måter å dempe dem på.

Ettersom menneske-AI-interaksjon blir en del av dagliglivet, er det nødvendig med ytterligere forskning for å se om chatbot-terapeuter effektivt kan tilby terapi utover atferdscoaching. Studier som sammenligner menneske versus chatbot på tvers av ulike terapistiler vil kaste lys over de potensielle fordelene og begrensningene til chatbot-terapeuter. På dette tidspunktet kan AI bidra til å forbedre eller forsterke terapien, men sannsynligvis ikke erstatte den.

Marlynn Wei, MD, PLLC Copyright © 2023. Alle rettigheter forbeholdt.

For å finne en terapeut nær deg, besøk Psychology Today Therapy Directory.

Les mer:

  • Fem typer empati i metaverset og virtuelle rom
  • Kan menneskelig-AI-samarbeid forbedre empati?
  • Fungerer "Digital Empati" i virtuell terapi?
  • 7 spørsmål å stille når Ved hjelp av Mental helse-apper

DET GRUNNLEGGENDE

  • Hva er terapi?
  • Finn rådgivning i nærheten av meg

Etter hvert som grensene mellom ekte og falske visker ut, jager amerikanerne i økende grad ideen om autentisitet. Det første trinnet kan være å vurdere selverkjennelse, sannhet og andre byggesteiner på veien til personlig vekst.