Home » Andet » Uberegnelig maskinintelligens på gale veje
Uberegnelig  maskinintelligens på gale veje

Uberegnelig maskinintelligens på gale veje

Share

Artificial Intelligence (AI) er god til at genkende ansigter, men dog bedst hvis ansigterne tilhører europæere. AI er også god til at finde mønstre i big data, men finder også gerne nogle fordomme frem

En algoritme til ansigtsgenkendelse har langt lettere ved at identificere mennesker og køn, hvis de bogstavelig talt er hvide i hovederne. I 2015 måtte Google eksempelvis undskylde dybt, fordi deres billedgenkendelsesalgoritme kategoriserede mørkhudede kvinder som gorillaer, fordi det intetanende program var oplært ud fra en billedbase, der fortrinsvis bestod af fotos af hvide mennesker.

Et hold forskere har tilsvarende testet algoritmer fra Microsoft, IBM og Face++ og bedt dem identificere billeder af i alt 1270 politikere fra tre skandinaviske og tre afrikanske parlamenter. Samtlige algoritmer havde nemmere ved at identificere mænd end kvinder, og alle algoritmer var bedst til at genkende ansigter med lys hudfarve. Værst ud kom såmænd IBM’s Watson Visual Recognition med en genkendelsesprocent på 99,7 % for hvide mænd og 65,3 % for mørklødede kvinder.

Computeren er ganske uskyldig

Studiet bekræfter, hvad eksperter længe har næret mistanke om. Fejltagelserne er graverende, men de er i bund og grund ikke computerens fejl. Langt de fleste billeddatabaser rummer nemlig ansigtsbilleder, hvor 75 % er mænd og 80 % er hvide mennesker, og så er det jo egentligt ikke mærkeligt, at computeren tager fejl. Moralen er, at ingen algoritme, om den er nok så intelligent, er bedre end de data, den lærer af.

Og det har ikke kun betydning for ansigtsgenkendelsessoftware. Også andre former for programmer og apps kæmper synligt med problemet. Eksempelvis leverede den populære applikation FaceApp flere gange sidste år uventede og ikke særligt flatterende forslag til ansigtsændring. Appen er en slags fotofilter, der ved hjælp af kloge algoritmer og neurale netværk bl.a. kan ændre ansigter fra sørgmodige til smilende, fra unge til gamle og såmænd også gøre mænd til kvinder eller omvendt.

Se også:  Verdens mest skræmmende tankeeksperiment

På et tidspunkt havde programmet imidlertid også en funktion, der kaldtes ”hot”. Det var et forskønnelsesfilter, der kunne få enhver til at tage sig bedre ud. Problemet var blot, at mens denne funktion gjorde billeder af hvide personer til rene Hollywood-stjerner, blev mørklødede mennesker først og fremmest mere hvide i huden og fik nedtonet alle deres etniske træk, hvilket naturligvis affødte en del kritik. Det russiske firma bag FaceApp, Wireless Lab, måtte beklage og forklarede, at funktionen var baseret på store mængder datasæt med blandede ansigter af blandet herkomst.

Denne frustrerende erfaring viser, at hvis algoritmeudviklerne ikke er rimeligt påpasselige med valg og brug af databaser, kan de intelligente algoritmer sagtens på ret uintelligent facon demonstrere alle de fordomme, de kan hente gemt mellem billedudvalget eller på nettet.

”Jeg hader jøder”

Meget bedre gik det heller ikke Twitter-chatbotten Tay, som Microsoft lancerede i maj 2016. Botten kunne tweete med sine brugere om alle emner, og meningen var, at jo mere begge parter tweetede, jo klogere blev den. Konceptet var derfor for så vidt godt nok, og adskillige Twitter-brugere sendte tweet efter tweet til botten gennem de næste 24 timer.

Men hurtigt kunne Microsoft godt se, at både tonen og observansen i chatbottens meddelelser tog forkert form og retning. Faktisk begyndte Tay at optage og viderebringe en hel del negative synspunkter og fordomme. Og efter bl.a. at have afleveret følgende uforglemmelige kommentar: ”Hitler was right. I hate the Jews,” valgte Microsoft at lukke munden på sin algoritme. Det var endnu en kontant lærestreg, der viser, hvor uheldigt det kan gå, når AI uforvarende opfanger tendenser og meninger, der ligger lidt uden for almindelig god tone og begynder at synge falsk.

Se også:  Engelske forskere har skabt en digital computerhjerne

Endnu en anden forskergruppe har forsøgsvis trænet en algoritme med data fra databasen Common Crawl, der består af næsten fem milliarder hjemmesider på i alt 200 TB. Og algoritmen viste klar tendens til at associere afro-amerikanske navne med negative koncepter, mens europæiske personnavne fik følgeskab af positiv omtale.

Endvidere blev kvinder i høj grad forbundet med familie, mens mænd hørte uløseligt sammen med karriere. Algoritmen sammenholdt også generelt insekter med noget mindre godt, mens blomster blev parret med glæde og skønhed. Og igen var det netop arten af baggrundsdata, der sparkede bagud. Hvis en algoritme henter træningsdata fra offentligt tilgængelige kilder, er det med andre ord vigtigt at forsyne den med en indbygget stopklods, der forhindrer den i at trække uheldige og reelt grundløst fordømmende tilkendegivelser med ind i sin lærdom i den tro, at det er god latin.

Algoritmerne er grundlæggende ligeglade med din hudfarve, dit køn, din vægt eller din politiske overbevisning. Til gengæld er alle de datasæt, som algoritmerne skal tage ved lære af, alene udvalgt af mennesker, der måske ikke er det og hver har deres såre menneskelige forudindtagede opfattelser.

Den populære applikation FaceApp havde på et tidspunkt en gimmick-funktion, der kunne skifte både køn og udtryk på et ansigt.

TAGS
AI
Algoritmer
big data
Kunstig intelligens

DEL DENNE
Share

Seneste Tech test
Seneste konkurrencer

Mest populære
Populære
Nyeste
Tags

Find os på de sociale medier

Modtag dagligt IT-nyhedsbrev

Få gratis tech-nyheder i din mail-indbakke alle hverdage. Læs mere om IT-UPDATE her

Find os på FaceBook

Alt om DATA

Lautrupsgade 7,
DK-2100 København Ø
Telefon: 33 91 28 33
redaktion@altomdata.dk

Datatid TechLife

Lautrupsgade 7,
DK-2100 København Ø
Telefon: 33 91 28 33
redaktion@datatid.dk

Audio Media A/S

CVR nr. 16315648,
Lautrupsgade 7,
DK-2100 København Ø
Telefon: 33 91 28 33
info@audio.dk
Annoncesalg / Prislister:
Lars Bo Jensen: lbj@audio.dk Telefon: 40 80 44 53
Annoncer: Medieinformation


Alt om DATA, Datatid TechLife  © 2019
Privatlivspolitik og cookie information - Audio Media A/S