Denna delen av 99 uppdateras inte längre utan har arkiverats inför framtiden som ett museum.
Här kan du läsa mer om varför.
Mac-nyheter hittar du på Macradion.com och forumet hittar du via Applebubblan.

Vi gör smarta algoritmer rasistiska och sexistiska

Rubriker som "Hur du gör för att undvika rasistiska algoritmer" blir allt vanligare, men kan en algoritm vara rasistisk och vad händer när vi flyttar ansvaret från oss själva till tekniken?

Doktor Rumman Chowdhury har forskat om artificiellt inflytande och hur AI formar om vårt samhälle under många år. Under Women in Tech i Stockholm i år pratade hon om sin forskning.

Möjligheterna med artificiell intelligens är nästintill oändliga men fallgroparna är nästan lika många. För att en AI ska vara så framgångsrik som möjligt måste den ha mycket data att arbeta med, men vad säger datan vi ger den? En av de vanligaste fallgroparna när det gäller artificiell intelligens är att vi omedvetet kan råka proppa den full med våra egna värderingar, samhällsstrukturer och vår egen partiskhet.

Vikten av mångfald

Därför betonar Chowdhury vikten av mångfald i arbetsgrupper som tar fram teknik. Ju större mångfald det finns i en utvecklingsgrupp desto mindre är risken att blinda fläckar uppstår. Det är inte bara faktorer som kön eller etnicitet som spelar in, exempelvis kan geografisk placering vara viktigt. Mångfald är viktigt för att veta hur produkter påverkar folk.

Chowdhury tar sin telefon som exempel. När hon kom till Sverige blev hon paff, helt plötsligt stängde mobilen av sig – för det var för kallt. Om en utvecklare i Kalifornien ska ta fram en mobil är dennes största bekymmer kanske hur den ska bli vatten- och dammtålig så den klarar sig på stranden, men utvecklaren är inte ens medveten om att andra klimat kräver andra behov – som att kunna överleva i kyla.

Artificiell intelligens är bra på mycket men den kan också många gånger vara rätt dum, det finns ett uttryck som säger att en artificiell intelligens är bäst på att spela schack i ett brinnande hus. Den kan göra uppgifter den blir tilldelad men den kan inte prioritera eller ta egna beslut långt utanför boxen. Därför är det också viktigt att veta vilken information vi ger en AI och vad den förväntas göra av informationen.

Det som vi inte ser

Ibland kan det vara svårt att se vad en AI gör i bakgrunden och i värsta fall kan smarta funktioner hjälpa dig att göra sämre val. Statistik säger exempelvis att kvinnor får mindre betalt än män, trots att de utför samma arbetsuppgifter. Detta kan leda till att sökträffar med lägre lön på en sökmotor för jobbletande hamnar högre upp hos mig som kvinna för att statistiken säger till den smarta funktionen att detta är "rätt".

På samma sätt kan artificiell intelligens jobba för att förstärka filterbubblor. Vi människor fungerar så att vi dras till saker som bekräftar vår tes och blir skeptiska mot saker som går emot den. Med sociala medier, smarta algoritmer och filterbubblor förstärks detta beteendet. Det gör att fenomen som fejknyheter, eller artificiell intelligens som genererar fejkposter för att få det att se ut som att en stor skara stöder en åsikt kan få förödande konsekvenser.

Vad som händer när vi flyttar ansvaret

Teknik och algoritmer kan inte per definition vara onda, diskriminerande eller ha en agenda men på senare tid har vi börjat lägga ansvaret på koden. Rubriker som "Artficiell intelligens: Hur du gör för att undvika rasistiska algoritmer" eller "Forskare varnar för att AI-robotar är sexistiska och rasistiska" blir allt vanligare. Istället för att prata om vad det är som gör att den artificiella intelligensen blivit "rasistisk" flyttar vi fokus från oss som gjort den till den "onda koden". Vi skapar ett narrativ där AI:n har en agenda och i slutänden också ansvaret för vad som sker.

Chowdhury drar en koppling till vad som hände under andra världskriget i Tyskland. När man in efterhand intervjuade personer som var inblandade i koncentrationslägren uppgav de att de bara gjorde vad de blev tillsagda, de var inte ansvariga för någons död.

Man har kunnat se likande mekanismer när det gäller samarbete med artificiell intelligens i exempelvis jobbsammanhang. "Det var inte jag som gjorde fel, jag gjorde bara som algoritmen sa åt mig att göra." Brist på ansvarskänsla är det som skapar grund för dåliga beslut, därför är det viktigt att vi skapar artificiell intelligens som kompletterar och samarbetar med oss, inte som säger åt oss vad vi ska och inte ska göra.

Skriven av Amanda Reventlid
Kommentarer
19 svar

Inget är som väntans tider, särskilt om du går och väntar på en iMac med Apples egna processor.

Inom kort kommer 99mac bli Macradion och då blir det en ny plattform med ett betydligt modernare forum.

Då var Apple Watch Series 7 här och ryktena stämde inte i år utan det blev samma design som vi sedan tidigare är vana vid.

Varje resa har ett slut och varje slut har en ny början och nu är det dags för oss att gå över till en modern plattform.

Apples event är över och i detta extra långa avsnitt får vi följa Marcus, Marcus, Dennis och Thor när de följer eventet live tillsammans med efterföljande diskussion om intrycken det gav.

Är du en av de som inte gillade det nya utseendet på Safari i macOS Monterey? Nu kan du lugna dig, Apple har backat på designen.