5 ting en transforsker vil at du skal vite om AI

Fellesskap

Transpersoner var ingen fremmede for storhetstid på internett som eksperimenterte med AI -tekst til bildegenerering under først og fremst 2022 og 2023. Transforfattere delte om det potensielle løftet om teknologien for å produsere bekreftende portretter. De samme modellene, men forskere fant imidlertid også produserte stereotyper og over-seksualisering av deres skildringer av transpersoner.

Siden den gang har AI -bruk eksplodert – som har eksempler på hvordan den svikter LHBTQ+ -samfunnet. Generativ AI har gjentatte ganger blitt funnet for skjevhet mot LHBTQ -folk og andre marginaliserte grupper. Forskning har vist at AI overvåkningssystemer utgjør en unik trussel for det transpersoner. Faktisk har anti-trans- og «kjønnskritiske» grupper allerede brukt AI med den hensikt å ekskludere og marginalisere det transpersoner.

Det er veldig få transpersoner som jobber i og studerer AI, og etterlater samfunnet med begrenset innspill og veiledning rundt teknologien. For bedre å forstå navigasjonen av teknologi som trans og queer, satte bladet seg ned med Eddie Ungless, en queer og transforsker som studerte queerphobia og transfobi i AI -modeller.

Her er fem ting som er ugløse understreket at LHBTQ -samfunnet bør vurdere når du navigerer i teknologien.

1: AI er ikke nødvendigvis intelligent

Når de fleste tenker på AI i disse dager, tenker de på chat-GPT eller Dall-E. Dette er egentlig, ugløse forklarer, et system som er trent på «en veldig stor mengde data for å identifisere subtile mønstre, og gjennom det er det i stand til å etterligne veldig spesielle aspekter ved menneskelig intelligens,» som det skrevne ordet.

Å etterligne spesielle aspekter ved menneskelig intelligens oversettes ikke til faktisk eller utbredt intelligens.

«AI er ganske flink til å late som om han er god på språk,» sier Ungless, «det har ført til en følelse av at disse systemene har en menneskelignende intelligens i andre henseender.» For eksempel kan chat-GPT være i stand til å skrive menneskelige klingende avsnitt, men innholdet er kanskje ikke nøyaktig.

Store språkmodeller som chat-GPT er bare en del av AI-teknologi. «Det er nesten mer som et markedsføringsbegrep,» sier Ungless og refererer til en større tankelinje i AI -samfunnet. Når jeg ser tilbake fem år, ble det som ble ansett for å være kunstig intelligens var anbefaling av sosiale medier anbefaling algoritmer og moderasjonsalgoritmer, forklarer Ungless, «det er ikke ting folk tenker på så sterkt som AI i dag.»

2: Problemet er i dataene

«Det er visse typer skjevheter som nå er viktige for AI -utviklingssamfunnet,» sier Ungless. Problemet er at AI -er ofte blir trent på enorme mengder ufiltrerte data. Ungless forklarer: «Vi trener disse systemene på så mye data at det er umulig å være trygg på hva som er inneholdt i disse dataene.»

Dette gjelder spesielt når dataene kommer fra internett og innholdet sannsynligvis vil være uforholdsmessig unøyaktig eller hatefullt. Utviklere vil ta stop-gap-tiltak for å prøve å temme dataene, som å fjerne vanlige slurver eller teste sluttproduktet på vanlige identitetsbetingelser. «Det de prøver å unngå er en skandale,» sier Ungless.

Men, Ungless, sier: «Selv om du prøver å fjerne store mengder stereotyping, seksualisering, fetisjisering eller støtende data, kommer det fremdeles til å krype inn og påvirke det endelige produktet ditt.»

Ungless sa at det ikke trenger å være tilfelle. De må bare bygge modeller annerledes. Utviklere prøver «med tilbakevirkende kraft å angre skader som ble gjort av (modellen) som ble opplært på innholdet på internett.» Ungless spør, hvorfor mater vi ikke modellene våre annerledes?

3: Mindre er ofte bedre

Utviklere prøver å mate AI -modeller så mye data som mulig, med tanken om at mer informasjon tilsvarer mer intelligens. Dette er ikke nødvendigvis tilfelle, sier Ungless, spesielt hvis dataene kommer fra internett.

Ungless Images AI trent på mindre, mer nøyaktige datasett som har hatt mer menneskelige innspill i å skape. For eksempel har forskere brukt AI -teknologi på spesialiserte datasett for å forbedre deteksjonen av brystkreft. Forskere måtte være mye mer flittige om dataene som gikk inn i modellene sine.

En del av å kurere nøyaktige datasett for AI -verktøy i fremtiden, hevder Ugless, bør være i samråd med marginaliserte samfunn som er berørt av verktøyene. I stedet for å prøve å fikse et verktøy med tilbakevirkende kraft, inkludert innspill i samfunnet, ville du sikre et bedre produkt fra begynnelsen.

Eller i det minste å se på hvilken informasjon som allerede er der ute. «Et godt første skritt vil være å be menneskene som bygger disse systemene om å reflektere mer over de normative beslutningene de tar mens de utvikler dem,» sier han. «Mange beslutninger blir tatt uten behørig hensyn til virkningen (eller) eksisterende samfunnsvitenskapelig forskning.»

I tillegg er det andre fordeler med mindre AI -modeller: forskning viser at de er grønnere. Tidligere i 2025 kom kinesiske AI DeepSeek overskrifter for å bli opplært på mindre data og bruke mindre energi.

4: Bruk verktøyene gjennomtenkt

Store språkmodeller som er trent på store skår på internett er innebygd i mange menneskers hverdag på dette tidspunktet. Ungless anbefaler å være gjennomtenkt om hva du vil komme ut av AI. Ungless sa at det kan være en nyttig teknologi. «Jeg tror at det kan ha praktisk bruk. Jeg tror det kan ha kreative bruksområder,» sier de, spesielt for oppgaver som trenger automatisering eller er vanskelig solo.

Når du undersøker hva LHBTQ -samfunnet bruker AI for, har Ungless funnet at folk bruker det til ting som å skrive skript for å forklare å komme ut eller eksperimentere med kjønnspresentasjon. Han erkjenner at dette kan være nyttig når det gjelder å skreddersy ressurser, men også oppfordrer folk til å sjekke ut samfunnsopprettede ressurser siden de kan være mer hjelpsomme.

Utover grensene for AIs nøyaktighet, påpeker Ungless at de er «til en viss grad, gjennomsnittlige maskiner. Så når du ber det om å produsere et brev til en kjær, vil det ikke bli tilpasset.»

De oppfordrer alle til å «engasjere seg mer oppmerksom med AI», og stille spørsmål som «trenger denne oppgaven virkelig automatiseres ved hjelp av AI? Kan en person gjøre det bedre? Kan en mer (lavteknologisk) løsning gjøre det bra?»

5: Beskytt dataene dine

Siden AIs data ofte kommer fra å skrape av internett, bør personopplysningene eller intellektuell eiendom til noen, ikke bare LHBTQ -samfunnet, tas i betraktning.

Ungless har funnet ut at dette er spesielt en bekymring for LHBTQ -reklamer. Han oppfordrer skaperne til å lære mer om hvordan arbeidet deres kan ha blitt brukt i AI -trening, og pekte brukere på nettsteder som har jeg blitt trent? Hvis skaperne lager visuelt innhold, kan de også bruke et filter – glasur – som beskytter data mot å bli brukt i treningssett.

Til syvende og sist vil mange av disse spørsmålene komme til politikken. Ungless oppfordrer alle til å engasjere seg i fremtiden for AI -politikken. De oppfordrer til: «Når AI blir normalisert, tror jeg at alle bør være engasjert i å sikre at beslutningstakere og regulering holder øye med hva AI -selskaper gjør.»

(Denne historien er en del av Digital Equity Local Voices Fellowship Lab gjennom nyheter er ute. Lab -initiativet er muliggjort med støtte fra Comcast NBCUniversal.)