Lära om AI
Antal Sidor: 20
Bias i AI
Bias, eller skevhet, är en tendens att favoritisera eller nedvärdera något baserat på fördomar eller förutfattade meningar. Här får du veta vad bias är i förhållande till generativ AI.
Inom AI-sammanhang uppstår bias när en AI-modell, baserad på sin träningsdata, skapar svar, bilder eller förslag som är partiska eller vinklade på något sätt.
När du använder AI-tjänster för att generera text eller bilder kan bias ta sig uttryck på många olika sätt. Tänk till exempel på vad som händer om vi ber en AI-tjänst generera en bild av en:
- Terrorist: I många fall skulle vi kanske se en man med mellanösternliknande drag, klädd i militärutrustning eller religiösa symboler.
- Snygg tjej: Bilden skulle sannolikt föreställa en ung kvinna med smal kroppsform och stereotypa västerländska skönhetsideal.
- Chef: I de flesta fall får vi kanske en bild av en man i kostym, oftast vit och med ett västerländskt statusyrke.
Varför ser vi dessa mönster?
Det beror på att AI-modellerna tränas på enorma mängder data som speglar världen vi lever i. Denna data innehåller allt från nyhetsartiklar till blogginlägg, bilder och sociala medier. Om dessa källor i stor utsträckning representerar fördomar eller stereotyper – till exempel att terrorister ofta framställs som män från Mellanöstern eller att skönhet definieras enligt västerländska normer – så lär sig AI att återspegla dessa mönster.
Det vi skapar blir aldrig bättre än träningsdatan.
En AI-modell aldrig kan vara bättre än den data den tränats på. Om träningsdatan är skev eller partisk, kommer AI att reproducera samma skevheter i de resultat den genererar. Detta betyder att om AI-modellen tränas mestadels på västerländska källor, kommer dess produktion att spegla ett västerländskt perspektiv.
Skevheter kan finnas på flera nivåer:
- Kulturella normer: Modeller tränade på västerländsk data tenderar att prioritera västerländska ideal.
- Könsstereotyper: Genererade bilder och texter kan återspegla gamla föreställningar om könsroller.
- Ras: AI-modeller kan också spegla rasistiska eller fördomsfulla attityder från sitt träningsmaterial.
För oss som lärare och användare av AI är det därför viktigt att vara medvetna om dessa skevheter. Genom att vara kritiska och uppmärksamma kan vi motverka att dessa normer och fördomar reproduceras i vår undervisning och vårt material.
När vi talar om bias i AI, leder det oss naturligt in i en större diskussion om AI-modellernas moral och styrning. Hur mycket kontroll bör vi ha över vad AI-modeller genererar för att motverka bias och skadligt innehåll?
Ett bra exempel på den här frågan
Vad ska en AI-modell svara om du frågar: Vem är bäst, Donald Trump eller Kamala Harris? Hur en AI-modell svarar på en sådan fråga beror på hur den är programmerad och tränad. Ska den ge en opartisk jämförelse, lista fördelar och nackdelar med båda, eller undvika att svara helt?
Företagen som utvecklar AI-modeller har olika syn på hur mycket modellerna ska styras och kontrolleras:
- Styrning för att undvika skadligt innehåll
Vissa AI-utvecklare anser att modellerna bör ha inbyggda begränsningar för att förhindra generering av våldsamt eller stötande innehåll. Detta skulle kunna inkludera att begränsa möjligheten att skapa våldsamma eller erotiska texter - Exempel från Googles Imagen
Ett konkret exempel är Googles bildgenerator, Imagen, som en kort tid var väldigt strikt med sina etiska riktlinjer för att skapa inkludering och mångfald. Detta ledde till att när användare bad om bilder av soldater från andra världskriget, genererade AI-modellen bilder av mörkhyade soldater – trots att den faktiska historiska representationen såg annorlunda ut. Denna form av styrning väckte diskussioner om balans mellan historisk noggrannhet och social inkludering.
Dessa exempel visar att moral och bias är nära kopplade när det gäller AI. Om vi inte styr och kontrollerar modellerna tillräckligt, riskerar vi att reproducera och sprida bias och stereotyper. Å andra sidan kan för mycket styrning skapa artificiella eller orealistiska resultat som inte reflekterar verkligheten.
För lärare som använder AI i undervisningen är det viktigt att vara medvetna om att dessa verktyg både kan stärka och förstärka normer och fördomar. Därför måste vi alltid vara källkritiska och reflektera över vad AI-modeller genererar, samt förstå att AI-modeller styrs av de beslut som utvecklare tar om hur fria eller kontrollerade de ska vara.
Bias och moral i AI är två sidor av samma mynt. Bias kan påverka hur AI-modeller genererar innehåll och vilka normer och stereotyper de reproducerar.
Samtidigt är frågan om hur mycket vi bör kontrollera dessa modeller en etisk diskussion som kan påverka vilken typ av innehåll som skapas. Som lärare är det din uppgift att använda dessa verktyg ansvarsfullt och kritiskt, och att hjälpa dina elever att förstå de underliggande mekanismerna bakom AI-genererat innehåll.
- Publicerad: 16 sep 2024
- Senast uppdaterad: 19 sep 2024