Home » Andet » Uberegnelig maskinintelligens på gale veje
Uberegnelig  maskinintelligens på gale veje

Uberegnelig maskinintelligens på gale veje

Share
Adskillige faldgruber

Som et andet godt, men efterhånden gammelt eksempel skabte ingeniører i 1960’erne en automatisk varmestyring i en stor kontorbygning for at undgå at bruge mere energi end nødvendigt til opvarmning og køling. Automatikken tog udgangspunkt i nogle lidt gennemsnitlige målinger på en enkelt normalvægtig 40-årig mand. I praksis betød dette imidlertid, at alle andre både ældre og yngre, mandlige og kvindelige medarbejdere sad og frøs på kontorerne, mens der blev spildt penge og ressourcer på unødvendig airconditioning. Og i 2015 kom det som et andet grelt eksempel frem, at der i årevis havde været fejl i den algoritme, der besluttede, om fanger i flere amerikanske delstater skulle løslades eller forblive i varetægt.

Men der kan også opstå andre ulykkelige aspekter og alvorlige uforudsete juridiske problemer ved at tillade kunstig intelligens at virke uden kontrol. Det er let at forestille sig, at personer eller grupper, der føler sig forskelsbehandlet på baggrund af køn eller etnisk herkomst, vil lægge sag an. For det er jo klar diskrimination, og en eventuel dom vil næppe falde ud til den intetanende algoritmes (og dens udvikleres) fordel.

Den stadigt mere racistiske chat-robot, som Microsoft lancerede i 2016, nåede ret langt i registret på 24 timer, før den blev lukket.

Problemer kan f.eks. let opstå, hvis en bestemt gruppe af mennesker udvikler intelligente algoritmer og træner dem på data, der hovedsageligt kommer fra eller handler om samme slags mennesker som de selv. Angiveligt har dette bl.a. fostret en reklameplatform, der viste flere annoncer for højt betalte jobs til mænd end til kvinder.

Se også:  Det er ikke længere kunstigt med kunstig intelligens

På lignende vis opdagede forskere fra Carnegie-Mellon University og International Computer Science Institute, da de i 2015 så nærmere på, hvordan Googles reklamer blev målrettet forskellige grupper, at når Googles algoritmer troede, at internetbrugeren var en mand, blev der vist jobannoncer for højt betalte lederstillinger. Var der tale om kvinder, fik de ikke samme tilbud, skønt de på alle andre områder havde sammenlignelige forudsætninger og profil.

FaceApp-funktionen ”Hot” havde en grim vane med at hvidliggøre mørklødede mennesker for at gøre dem ”smukkere”.

Hvorfor gør algoritmen sådan?

Google har forsøgt at komme forudindtagede algoritmer til livs ved at udvikle en test, der påstås at kunne afsløre, om en algoritme er uhensigtsmæssig eller ligefrem diskriminerende i forhold til køn og race.

Se også:  Softwarerobotter er i stærk vækst i Danmark

Problemet er, at netop fordi computere kan behandle så store mængder data, påvirker det den umiddelbare uigennemskuelighed, hvor ingen og heller ikke udviklerne af algoritmerne kan se, hvad en intelligent algoritme gør, og ikke mindst hvorfor den gør det. I virkeligheden er problemet nok, at Big Data aldrig må anskues som ”kolde kendsgerninger”, og at store samlede datasæt på en eller anden måde altid vil favorisere flertallet.

Derfor lagde Google-forskerne ud med at se på, hvad algoritmen nåede frem til af resultat snarere end, hvordan den nåede frem til det. Og ikke mindst holdt de øje med, om den begyndte at udlede ting om en persons køn eller race, som ikke klart fremgik af de anvendte data. Målet var med andre ord ikke at påvise, om algoritmen var fair, men tvært-imod, om den var unfair. Denne tilgang har Google-forskerne kaldt ”Equality of Opportunity in Supervised Learning”. Konklusionen var, at netop fordi algoritmen var blevet oplært gennem ”supervised learning”, hvor udviklerne selv havde tilrettelagt oplysningerne i dens træningsdatabase, var det også udviklerne og ikke algoritmen, der stod til ansvar.

Algoritmer, der skal genkende og kategorisere menneskeansigter, vurderer ud fra en række specifikke og grundige parametre. Men det er ikke altid nok.

TAGS
AI
Algoritmer
big data
Kunstig intelligens

DEL DENNE
Share


Mest populære
Populære
Nyeste
Tags

Find os på de sociale medier

Modtag dagligt IT-nyhedsbrev

Få gratis tech-nyheder i din mail-indbakke alle hverdage. Læs mere om IT-UPDATE her

Find os på FaceBook

AOD/AOD.dk

Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
redaktion@aod.dk

Audio Media A/S

CVR nr. 16315648,
Brogårdsvej 22
DK-2820 Gentofte
Telefon: 33 91 28 33
info@audio.dk
Annoncesalg:
Lars Bo Jensen: lbj@audio.dk Telefon: 40 80 44 53
Annoncer: Se medieinformation her


AOD/AOD.dk   © 2020
Privatlivspolitik og cookie information - Audio Media A/S