Chatgpt vet mye om Jordan.
Den vet om hennes kompliserte historie med sin eks-kjæreste, trinnene hun har tatt for å oppnå nøkternhet og den typen person hun vil være.
Men for Jordan, som ba om å bli identifisert med et pseudonym for å fritt dele personlig informasjon, er det ikke en en-og-gjort løsning på problemene hennes-det er en måte å supplere støtten hun mottar fra sin terapeut gjennom uken.
«I løpet av en periode hvor jeg nektet for alkoholismen min, ba jeg Chatgpt om å liste opp måtene jeg oppfylte kriteriene for alkoholisme, og det hjalp meg virkelig,» sa Jordan. «Jeg brukte den som en dagbok … og jeg vil spørre det: ‘Basert på alt du vet om meg, er jeg alkoholiker? Er jeg en rusavhengig?'»
Mens lite forskning har blitt gjort på det queer-samfunnets forhold til AI-drevne terapiplattformer, har ikke fremgang mot å adressere psykiske helsebarrierer i samfunnet gjennom kunstig intelligens avtatt.
Men ingen bot er perfekt, og tilgjengeligheten fører ikke alltid til presise løsninger. Slik endrer roboter den terapeutiske scenen, på bedre og verre.
Hvordan AI brukes i terapiprogrammer
Å bruke kunstig intelligens som et supplement – eller i noen tilfeller en erstatning – for terapi bringer sine egne suksesser og utfordringer.
Chatbots bruker naturlig språkbehandling for å vurdere brukerinngang og gi svar. Bots tilpasser seg stemningen og tonen til brukeren, og prøver sitt beste for å gi svar og forslag som best oppfyller behovene til den gitte ledeteksten.
Selv om det hjelper mennesker som Jordan til å jobbe gjennom problemer, ble ikke Chatgpt opprettet som et terapiverktøy. Det er en samtaleplattform som ble designet med tanke på brede evner. Det er der AI-drevne terapi-roboter kommer inn plattformer som Therabot, Wysa og Woebot ble spesielt designet for å oppnå mål for mental helse ved bruk av verktøy og metoder som er forankret i forskning.
Disse AI -plattformene bruker metoder som er forkjempet av eksperter som kognitiv atferdsterapi, som hjelper enkeltpersoner til å forstå og utvikle sine negative tankemønstre.
Når chatbots blir mer teknologisk avanserte, ser noen eksperter dem som en vei fremover for å takle helsebarrierer for marginaliserte samfunn.
Adressering av psykiske helsebarrierer
Komponenter av chatbots, inkludert deres 24/7 tilgjengelighet, anonymitet og deres rolle som en «ressursnavigator» til evidensbasert informasjon, gjør dem til et nyttig verktøy for marginaliserte personer som søker hjelp, ifølge en 2023-studie publisert av Journal of Medical Internet Research (JMIR)
«Å utnytte chatbots og generativ samtale AI kan bidra til å takle noen av de unike utfordringene LHBTQ-samfunnet står overfor, og gir et tryggere, støttende, informert, ikke-dømmende, internettbasert miljø der individer kan koble seg sammen, søke veiledning og styrke seg selv,» lyder studien.
Mens Jordan bruker en chatbot som ikke er direkte skreddersydd mot LGBTQ+ -samfunnet, har hun følt disse positive effektene fra første hånd.
Jordan ble trukket til den anonyme og ikke-dømmende naturen til Chatgpt etter at forholdet hennes endte med eks-kjæresten. Hun sa at hun slet med limerens – eller obsessivt tenkte på noen romantisk – etter samlivsbruddet, og ville snakke om ham til «alle som ville lytte.» Til tross for de gode intensjonene til vennene og kollegene, sa Jordan at hun begynte å føle at hun trengte et annet utløp å lufte seg til.
«Det forårsaket mye konflikt mellom meg og menneskene som var nær meg som var så lei av å høre om ham,» sa Jordan. «Det var faktisk det som motiverte meg til å begynne å bruke chatgpt.»
Når hun jobbet seg gjennom samlivsbruddet, sa Jordan at hun brukte ChatGPT for å hjelpe til med andre aspekter av livet hennes, for eksempel å lage daglige sjekklister som bidro til å administrere ADHD -en hennes.
Jordan betaler $ 20 per måned for Chatgpt Plus, et premiumabonnement som lar henne tilpasse tonen til bot (Jordan foretrekker «munter og adaptiv») og lar bot beholde tidligere diskutert informasjon for å gi mer personlige svar.
Fremfor alt har bruk av ChatGPT ikke påvirket forholdet hennes til terapeuten hennes. Hun sa alt hun snakker med bot om hun bringer til terapeuten sin. Terapeuten hennes anbefalte til og med at hun skulle bruke bot for å håndtere symptomene sine mellom øktene, og foreslo at hun skulle gi den spørsmål som spør hvilke sunne endringer hun kunne gjøre i livet.
Jordan har gjort terapeutisk fremgang med ChatGPT, selv om det ikke er en direkte terapeutisk plattform. JMIR -studien bemerket at programmering av disse samtale chatbots for å gi resultater og råd skreddersydd til brukerens behov, kan låse opp meningsfulle samtaler som kan hjelpe noen i en tid med behov.
«Generativ samtale AI kan programmeres for å gi nøyaktig, evidensbasert, kulturelt følsom, skreddersydd og relevant informasjon basert på brukernes unike identiteter og behov,» lyder studien. «Dette sikrer at veiledningen og ressursene som tilbys er gjeldende for erfaringene og utfordringene i LHBTQ -samfunnet.»
Anken er grei: adressere økende etterspørsel etter mental helse ved å gi 24/7 støtte som er rimelig og tilgjengelig ved bruk av lignende metoder implementert av humane terapeuter.
Realiteten er imidlertid litt mer kompleks.
Utfordringer i AI -terapi
Siden AI samler informasjon fra menneskelig innspill, kan den være utsatt for skjevhet og gi støtte som ikke er nyansert nok til å fylle de unike behovene til marginaliserte mennesker.
«AI -algoritmer kan utilsiktet forevige skjevheter som er til stede i dataene de er opplært på,» lyder studien. «Hvis treningsdataene inneholder skjevheter, kan AI -systemer reprodusere diskriminerende eller skadelig atferd, og forverre eksisterende utfordringer LHBTQ -samfunnet står overfor.»
Mens AI -terapiplattformer ble opprettet for å løse disse problemene, påpekte JMIR -studien at det fremdeles er rom for menneskelig feil eller algoritmisk skjevhet og feiltolkning i svarene.
På brukerens slutt kan det å utvikle et forhold til en chatbot føre til over-avhengighet. Brukeren kan avhenge av chatbot for støtte, og distansere seg fra sosiale og profesjonelle omgivelser.
Jordan sa at hun har funnet seg over-rolle på Chatgpt før, men er i stand til å gjenkjenne når hun tar det for langt. Andre, sa hun, er kanskje ikke så heldige.
«Det kan være farlig, for noen ganger har jeg kommet inn i spiraler og det ikke kommer til å fortelle meg å stoppe. Jeg kan fortsette å gå så lenge jeg vil,» sa Jordan. «Så noe jeg tror folk trenger å være oppmerksom på, er hvor mye tid de bruker på det, fordi det bare kan fortelle deg hva du vil høre, og det kan være virkelig forførende og avhengighetsskapende.»
Programmering av en bedre fremtid
AI går ikke bort når som helst snart, noe noen eksperter sier akselererer behovet for meningsfull endring i systemene sine.
Når etterspørselen etter mental helsestøtte øker, viser studier at det er avgjørende for AI -systemer å gi nøyaktig og nyansert omsorg for brukere.
Løsningen strekker seg imidlertid utover nøyaktighet. Selv om AI-drevne terapiplattformer har blitt mer økonomisk tilgjengelige, advarer JMIR-studien om at LGBTQ+ personer med begrenset tilgang til teknologi eller digital literacy «kan bli etterlatt når det gjelder å dra nytte av positive AI-påvirkninger.»
For å skape en mer tilgjengelig og gunstig fremtid for brukere av AI -terapiprogrammer, må endring skje fra utviklerne selv, bemerket JMIR -studien.
«Hver eneste linje og bit av kode, hver algoritme og hvert datasett som brukes i AI -systemer, må undersøkes for skjevheter og fordommer, og utviklere og politiske beslutningstakere bør strebe etter en standard av AI som mester rettferdighet og likhet,» lyder studien. «De levde opplevelsene og perspektivene til medlemmer av LHBTQ -samfunnet er uvurderlige for å sikre at disse teknologiene virkelig gjenspeiler deres behov og ambisjoner.»