Din varukorg är för närvarande tom!
Ny rapport om dataskydd och artificiell intelligens
Artificiell intelligens används bl a för att profilera enskilda i samband med marknadsföring och rekrytering, för att bekämpa brottslighet och i ökande utsträckning för att fatta myndighetsbeslut. Kari Laumann, jurist vid norska Datatilsynet, presenterade rön från en kommande studie om AI, integritet och dataskyddsförordningen vid Nordic Privacy Arena i oktober:
– Vi adresserar artificiell intelligens i vid mening och har tittat på dataminimering, rätten till information och ”algorithmic bias” i AI-sammanhang, säger Kari Laumann.
Rapporten tar också upp den så kallade black box-problematiken. Eftersom självlärande algoritmer förändras i takt med att de lär sig kan det vara svårt att överblicka hur de fungerar – även för utvecklarna själva. Samtidigt ställer dataskyddsförordningen krav på transparens – registrerade har rätt att få information om hur uppgifter hanteras i lätt tillgänglig form och med användning av klart och tydligt språk. Till det kommer reglerna om automatiserade beslut.
– Jag tror att GDPR på det stora hela kan hantera black box-problematiken, men eftersom regleringen ännu inte är implementerad återstår det att se hur gränsfallen kommer hanteras, säger Kari Laumann.
Laumanns presentation vid Nordic Privacy Arena följdes av en paneldiskussion om AI och integritet med Mikael Haglund (CTO IBM Sweden), Rebecka Cedering Ångström (director vid Ericsson Networked Society Lab), Per Meyerdierks (Legal Counsel Google Germany) och Stanley Greenstein (doktor i rättsinformatik vid Stockholms universitet):
Datatilsynets rapport offentliggjordes i början av januari och finns tillgänglig för nedladdning här. Läs också Artikel 29-gruppens riktlinjer om automatiserade beslut och profilering från i höstas.
Fredrik Svärd
fredrik.svard@dpforum.se