Home » Andet » Uberegnelig maskinintelligens på gale veje
Uberegnelig  maskinintelligens på gale veje

Uberegnelig maskinintelligens på gale veje

Share
Det skal forbydes ved lov

Derfor er der nu også tanker fra forskellige sider fremme om faste retningslinjer for programmører og udviklere. Amerikanske Robert Cecil Martin, der er softwareingeniør og driver firmaerne Uncle Bob Consulting LLC og Clean Coders slår eksempelvis på, at softwareudviklere bør finde ud af at regulere sig selv, og det bør ske hurtigt. Hans pointe er, at i dagens verden er alle vores handlinger mere eller mindre styret af software.

Software bliver efter sigende brugt af firmaer på Wall Street til at manipulere aktiekurser, og Robert Martin peger også på, at snesevis af mennesker menes at være døde som følge af dårlig softwares dårlige beslutninger. Hvem er egentlig ansvarlig for beslutninger foreslået af en computer? Robert Martin er ikke i tvivl og erklærer, at hvis ikke programmørerne begynder at programmere sig selv til at programmere ordentlige algoritmer, vil lovgiverne på et tidspunkt gøre det for dem.

En 60 år gammel varmestyringsalgoritme var skyld i at alle frøs på kontorerne, fordi algoritmen havde taget udgangspunkt i en gennemsnitlig mand i sin bedste alder.

Professor Rasmus Pagh fra IT-Universitetet i København bakker op og mener, at der er brug for konkret lovgivning, der sikrer tilstrækkelig rimelighed og gennemsigtighed uden naturligvis at miste de mange nyttige muligheder, der ligger i datadrevne beslutninger. I hvert fald er der behov for en fælles brancheorganisation, der sætter fokus på etik og fairness.

Se også:  Nu skal danske chatbots også kunne dansk

En interessant anskuelse kommer fra Joe Green, der byggede Facemash (forløberen til Facebook) sammen med Mark Zuckerberg, der stiftede Facebook (og nu er blevet indhentet af diverse datarelaterede problemer). Ifølge Joe Green skaber Facebooks algoritmer ‘ekkokamre’, hvor vi kaster bekræftelser af os selv og hinandens synspunkter frem og tilbage mellem ”væggene” på de sociale medier. Det er ikke mindst efter hans overbevisning grunden til den opsplitning, vi ser i USA.

Det har fra flere sider været forsøgt at få maskinlæringsalgoritmer til at ”tagge” deres resultat med forskellige mulige grader af sandsynlighed (men det nytter jo ikke, hvis det i praksis kun er programmørerne, der kan se den).

Sådan undgår vi ”onde” algoritmer

Professor i Computer Science ved University of California Stuart Russell, som i øvrigt også er adjunkt professor i neurologisk kirurgi, har måske en løsning på, hvordan vi undgår at skabe skadelige algoritmer. Ret beset går det jo blot ud på at implementere algoritmerne på en så gennemtænkt måde, at det ligger indbygget, at algoritmen kan tage fejl.

Som et måske nok karikeret, men ikke helt urealistisk eksempel visionerer han en simpel kaffehenter-robot. Dens opgave lyder kort og godt: ”Hent kaffe”. Problemet er blot, at ingen har defineret nogen explicitte regler eller begrænsninger for dens adfærd. Det kan være den springer over i køen eller skubber andre væk alt efter, hvad der nu hindrer den i at fuldføre sin opgave.

Professor ved University of California Stuart Russell har måske en løsning på, hvordan vi undgår at skabe skadelige algoritmer.

Hvis andre kaffetørstige sjæle vil forsøge at slukke det irriterende bæst, vil den sandsynligvis også stritte voldsomt imod og holde sig tændt for enhver pris for at kunne løse sin opgave.Dens algoritmer behøver ikke at være onde i nogen forstand. De er blot hverken gennemtænkte eller gennemførte.

Se også:  Danmark i front med kunstig intelligens

Stuart Rusell har derfor opstillet tre regler for intelligente algoritmer eller robotter.

Den første lyder:

1) Gør hvad du kan for, at mennesker, du kommer i kontakt med undervejs mod din opgaveløsning, har det godt.

Den anden regel hedder:

2) Lær og udvis proportionssans. Og er du i tvivl, så tøv!

Kaffen i sig selv er ikke noget værd, hvis nogen kommer til skade undervejs.
Og endelig den tredje regel, der nok også er den sværeste:

3) Lær og vid, hvad der er rigtigt og forkert.

Desværre ved selv Stuart Rusell ikke helt, hvordan nogen skal lære en algoritme fornuftig opførsel. Han foreslår selv, at det kan ske på baggrund af nøje betragtninger af virkelige situationer, og hvordan mennesker reagerer i sådanne situationer. Og er der tale om en kaffehenterrobot, skal den altså studere køkultur, høflig ordregivning, betaling osv.

Men andre kunne vel nok finde på at sige, at det bestemt ikke er sikkert, at robotten vil få det bedste udgangspunkt ved at studere os mennesker ude i det virkelige liv.

TAGS
AI
Algoritmer
big data
Kunstig intelligens

DEL DENNE
Share


Mest populære
Populære
Nyeste
Tags

Find os på de sociale medier

Modtag dagligt IT-nyhedsbrev

Få gratis tech-nyheder i din mail-indbakke alle hverdage. Læs mere om IT-UPDATE her

Find os på FaceBook

Alt om DATA

Lautrupsgade 7,
DK-2100 København Ø
Telefon: 33 91 28 33
redaktion@altomdata.dk

Datatid TechLife

Lautrupsgade 7,
DK-2100 København Ø
Telefon: 33 91 28 33
redaktion@datatid.dk

Audio Media A/S

CVR nr. 16315648,
Lautrupsgade 7,
DK-2100 København Ø
Telefon: 33 91 28 33
info@audio.dk
Annoncesalg / Prislister:
Lars Bo Jensen: lbj@audio.dk Telefon: 40 80 44 53
Annoncer: Medieinformation


Alt om DATA, Datatid TechLife  © 2020
Privatlivspolitik og cookie information - Audio Media A/S