FN rapportör: Unika utmaningar med AI måste uppmärksammas omgående

Enligt en ny FN-rapport råder det ingen tvekan om att artificiell intelligens, om den används på ett korrekt och ansvarsfullt sätt, kan främja målet om jämlikhet för alla. Rapporten hävdar att detta inkluderar personer med funktionsnedsättning, som med vissa lösningar kan leva ett betydligt mer självständigt liv. Samtidigt konstaterar rapporten att bristfälliga AI-lösningar också kan ha en betydligt mer negativ inverkan på denna grupp än på personer utan funktionsnedsättning.

I december 2021 publicerade FN:s särskilda rapportör om rättigheter för personer med funktionsnedsättning, Gerard Quinn, nämnda rapport om hur artificiell intelligens påverkar rättigheterna för denna grupp. Quinn är professor i juridik vid Universitetet i Leeds, Storbritannien och har även kopplingar till Lunds universitet. Rapporten kommer snart att diskuteras vid FN:s råd för mänskliga rättigheter i Genève, Schweiz. Rådet för mänskliga rättigheter är för närvarande inne på sin 49:e sittning, som inleddes den 28 februari 2022 och kommer att pågå till den 1 april 2022.

Problemet med fördomsfulla och diskriminerande algoritmer har redan fått mycket uppmärksamhet, det har dock ofta relaterats till diskrimineringsgrunderna kön och etnicitet. Hanteringen av risker och möjligheter med AI-teknik var också ett flitigt diskuterat ämne under bland annat under Nordic Privacy Arena 2017.

Drabbas jättehårt om samhället inte hanterar gruppens unika problem

Nu varnar Gerard Quinn, i FN-rapporten för att de mänskliga rättigheterna för personer med funktionsnedsättning är i fara. Orsaken är att för lite uppmärksamhet har ägnats åt hur AI-teknologier specifikt påverkar denna grupp.

Rapporten påvisar att användningen av AI-teknik påverkar många mänskliga rättigheter, såsom rätten till likabehandling, arbete, studier med mera. Rätten till privatliv och dataskydd nämns som särskilt viktiga för att upprätthålla principen om mänsklig värdighet. I AI-sammanhang betyder det att personer med funktionsnedsättning har rätt att förstå och utöva kontroll över hur deras uppgifter behandlas.

FN-rapporten klargör också att vissa AI-risker är unika för personer med funktionsnedsättning. Det finns även risker som personer med funktionsnedsättning delar med andra grupper. Men även bland de risker som de delar med andra grupper är förhållandet mellan risker och möjligheter olika eller till och med oproportionerligt annorlunda för personer med funktionsnedsättning. Därför uppmanas FN:s medlemsstater i rapporten att skyndsamt lägga särskilt fokus på hur AI påverkar rättigheterna för den miljard människor som har en funktionsnedsättning.

Enligt en annan rapport, om diskriminering och AI som juridikprofessor Fredrik Zuiderveen Borgesius skrev för Europarådet år 2018, är dataskyddslagar och diskrimineringslagar de viktigaste rättsliga verktygen i Europa för att bekämpa AI-diskriminering (se sidan 31 i rapporten). Vidare har de brittiska datavetenskapsforskarna Reuben Binns och Reuben Kirkham undersökt hur diskrimineringslagstiftning och dataskyddslagstiftning kan användas tillsammans för att bekämpa AI-diskriminering av personer med funktionsnedsättning.

Personer med funktionsnedsättning är en mycket heterogen grupp

Binns och Kirkham konstaterar att det finns betydande skillnader i hur lagen hanterar AI i förhållande till personer med funktionsnedsättning jämfört med andra diskrimineringsgrunder. Binns och Kirkham förklarar att diskriminering av personer med olika funktionsnedsättningar inte kan elimineras med en och samma lösning. För det första erkänns ett stort antal fysiska, medicinska och psykiska tillstånd av lagen som funktionsnedsättningar. Detta kräver olika strategier för olika typer av funktionsnedsättningar. Dessutom finns ett kompletterande rättsligt skydd som inte gäller för andra diskrimineringsgrunder. Detta ytterligare rättsliga skydd består av skyldigheten att göra skäliga anpassningar, vilket bland annat kan kräva individuellt anpassade lösningar. För det andra, så förbjuder diskrimineringslagstiftningen inte en organisation från att behandla personer med funktionsnedsättning bättre än personer utan funktionsnedsättning. Den sistnämnda principen gäller dock inte andra diskrimineringsgrunder.

Binns och Kirkham identifierar sex situationer där dataskyddslagar och diskrimineringslagar samverkar. Om personer med funktionsnedsättningar missgynnas kan en organisation exempelvis vara skyldig att erbjuda alternativ till en AI-lösning. Enligt diskrimineringslagstiftningen kan detta falla under skyldigheten att tillhandahålla skäliga anpassningsåtgärder. Enligt dataskyddslagstiftningen kan rätten att inte bli föremål för automatiserat beslutsfattande också gälla (se till exempel artikel 22 i GDPR). I den här situationen erbjuder alltså båda lagarna olika perspektiv och sätt att skydda personer med funktionsnedsättning, påpekar Binns och Kirkham.

År 2019 publicerade en grupp forskare från Carnegie Mellonuniversitetet och Microsoft en färdplan för forskning om rättvis AI. I den artikeln gjorde de en bedömning av nuvarande teknik och dess risker för personer med funktionsnedsättning. Ansiktsteknologier riskerar enligt dem att fungera dåligt för personer med Downs syndrom, personer med synnedsättning och de som har en annan ögonanatomi eller personer som inte tittar på kameran från den förväntade vinkeln. Programvaran kan också misstolka känslorna hos personer med autism eller personer som har fått en stroke som påverkar ansiktsmusklerna. Teknik för taligenkänning kan också vara dålig på att uppfatta talet hos personer med talsvårigheter och hörselskadade med annorlunda uttal.

Regeringar uppmanas agera, annars får personer med funktionsnedsättning sämre livsvillkor under lång tid

I FN-rapporten betonas att personer med funktionsnedsättning är den grupp i samhället som oftast hamnar sist. Om samhällets mål är att personer med funktionsnedsättning ska kunna leva på lika villkor och inte diskrimineras måste tekniken nyttjas på rätt sätt. Annars kommer denna grupp enligt rapporten inte bara att hamna på efterkälken, den kommer inte heller att kunna komma ikapp senare. Rapporten ansluter sig till uppfattningen hos FN:s högnivåpanel för digitalt samarbete som rekommenderar att AI-tekniken ska användas för att uppnå FN:s mål för hållbar utveckling.

FN-rapporten konstaterar att FN:s konvention om rättigheter för personer med funktionsnedsättning, Convention on the Rights of Persons with Disabilities (CRPD) medför att regeringar har vissa skyldigheter i fråga om utvecklandet av AI-teknik. I rapporten slås det fast att regeringar enligt CRPD till och med har ansvar för att påverka den privata sektorn med både piska och morot (lagstiftning och incitament).

Enligt rapporten är regeringarna ansvariga för att både undanröja diskriminering och främja utveckling och användning av tekniska hjälpmedel för personer med funktionsnedsättning. Detta ska ske i ett tidigt skede när det gäller produktdesign, utveckling, produktion och distribution av sådana hjälpmedel. Genom att göra detta bör regeringarna sträva efter att göra hjälpmedlen allmänt tillgängliga till lägsta möjliga kostnad enligt CRPD, står det i rapporten.

Gerard Quinn ger också en rad rekommendationer till FN:s medlemsländer. Här kommer ett urval:

1) Gör den nationella debatten om artificiell intelligens bredare, djupare och fokuserad på CRPD.

2) Förbjud diskriminerande användning av artificiell intelligens.

3) Det rättsliga skyddet för mänskliga rättigheter behöver vara heltäckande och uttryckligen beakta hur artificiell intelligens påverkar personer med funktionsnedsättning.

4) Överväg ett moratorium för AI-teknik som riskerar att diskriminera, såsom teknik som analyserar ansikten och känslor.

5) Tillämpa standarder som är anpassade till personer med funktionsnedsättning vid upphandling.

6) Stöd organisationer för personer med funktionsnedsättning att bygga kapacitet att hantera AI-frågor. De behöver kunna övervaka hur utvecklingen av AI påverkar personer med funktionsnedsättning och samarbeta med organisationer inom den privata sektorn för att uppmärksamma skadliga och diskriminerande tillämpningar av AI-teknik.

Fördjupningstips

Frågan om hur AI-användning påverkar rättigheter för personer med funktionsnedsättning har onekligen många beröringspunkter med dataskyddsfrågorna. Allt från hur hjälpmedel hanterar personuppgifter till att organisationer måste säkerställa att diskriminerande databehandlingar inte förekommer. Personuppgifter kan även finnas i dataset som en AI tränas på och ibland vara en del av själva algoritmen.

Den som vill utforska frågan från ett mer praktiskt perspektiv skulle exempelvis kunna titta på denna YouTube-video av The Zero Project. I videon visas positiva exempel på AI-lösningar för personer med funktionsnedsättning samtidigt som det reflekteras över hur viktiga värden som dataskydd och självbestämmande värnas.

Även denna artikel om teckenspråksvantar kan vara av intresse. Flera forskare och studenter har sedan 80-talet oberoende av varandra uppfunnit teckenspråksvantar. Det är en vante med sensorer som sätts på handen och registrerar handform och handens position. Tanken är att den ska omvandla det som tecknas till tal eller text. Flera av uppfinnarna har också fått innovationspriser och utmärkelser för teckenspråksvantar som enligt döva själva inte alls är ett användbart hjälpmedel. Forskarna hade nämligen inte räknat med att en övervägande del av ett teckenspråks grammatik och kommunikation sker genom en medveten styrning av ansiktsuttryck och kroppshållning.

Exempelvis tecknas frågan ”Är du hungrig?” och påståendet ”du är hungrig” på exakt samma sätt med händerna i svenskt teckenspråk. Det är hur man rör ögonbrynen och lutar överkroppen som indikerar huruvida man frågar eller påstår något. Artikeln belyser och reflekterar över vikten av att uppfinnare redan på idéstadiet, konsulterar personer med funktionsnedsättning. Om man bygger produkten baserat på sina egna antaganden om gruppen, riskerar man lägga mycket värdefull tid och pengar på att ta fram en produkt som inte hjälper dem man vill hjälpa. Man riskerar också att förolämpa gruppen man vill hjälpa, om produkten trots sådana brister presenteras som en lovande lösning på gruppens problem.  

Läs mer:

Gerard Quinns FN-rapport om AI:s påverkan på rättigheter för personer med funktionsnedsättning

Fredrik Zuiderveen Borgesius rapport till Europarådet 2018 om AI och diskriminering

Datavetenskapsforskarna Binns och Kirkhams genomgång om hur dataskyddsregler och diskrimineringslagstiftning kan samverka för att göra AI mer rättvis för personer med funktionsnedsättning

Färdplanen för AI-rättvisa för personer med funktionsnedsättning. Framtagen 2019 av forskare vid Carnegie Mellonuniversitetet och Microsoft

Logga in

Ej medlem? Registrera dig

Återställ lösenord

Bli medlem

    Forum för Dataskydd bidrar till ett tryggt informationssamhälle och värnar om integritetsskydd idag och i morgon. Vi förstärker, förenklar och ökar medvetenheten kring integritetsskydd i Europa genom att skapa ett tongivande forum för samverkan och informationsspridning. Stärk ditt dataskyddsarbete med kompetens från drygt 800 medlemmar på våra seminarier och nätverksträffar. Medlemmar går gratis på våra seminarier och nätverksträffar samt till rabatterat pris på Nordic Privacy Arena.

    Studentmedlemskap upphör automatiskt efter ett år, därefter behövs ny ansökan. Ange också ert mecenatkortnr i meddelandefältet.


    Det är viktigt att meddela oss om du byter arbetsplats, faktureringsadress, telefonnummer, mailadress eller annan viktig information. När du byter arbetsplats eller annan ovannämnd information mailar du oss och meddelar detta på info@dpforum.se så att vi kan säkerställa kontinuitet i ditt medlemskap.


    Ordinarie medlemskap: 1645 kr per år.
    Student: Gratis första året, sedan 200 kr per år (är du anställd på ett företag gäller ordinarie pris).















    Genom att fylla i formuläret, godkänner jag att Forum för Dataskydd lagrar mina personuppgifter i sin databas som kommer användas för att förse mig med relevant information om Forum för Dataskydds tjänster och erbjudanden.

    This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
    Go to cart