Din varukorg är för närvarande tom!

Generativ AI – en Pandoras ask för säkerheten?
Medan generativ AI har tagit världen med storm och stora aktörer som Microsoft och Google integrerat dessa i sina tjänster som riktar sig till konsumenter, har företagens oro över användningen av denna teknik i den egna organisationen ökat. Detta beror främst på att man är orolig över den personliga integriteten och cybersäkerheten.
Enligt en ny undersökning från företaget BlackBerry Limited som släpptes den 8 augusti 2023, överväger 75 % av företagen runt om i världen att förbjuda användningen av ChatGPT och andra liknande AI-verktyg i sina IT-miljöer. De flesta företagen såg förbudet som ett långsiktigt ställningstagande. 67 % av företagen var oroliga över cyberrisker för sina IT-miljöer, medan 57 % oroade sig för att företagets rykte kommer till skada.
I pressmeddelandet rekommenderar BlackBerry företag att vara försiktiga när de använder generativ AI anpassad för konsumentbruk på arbetsplatsen. Detta med tanke på att de flesta av verktygen till stor del innehåller sårbarheter då de fortfarande är i test- eller betaversioner. Detta utan några lämpliga säkerhetsåtgärder och utan att det finns riktlinjer för hur verktygen får användas.
Generativ AI medför stora cybersäkerhetsrisker för företag
Organisationer som rusar för att anamma generativ AI i kombination med programmerares entusiasm för stora språkmodeller gör att de flesta organisationer står oförberedda och försvarslösa inför de otaliga sårbarheter som uppkommer i samband med det hastiga omfamnandet av verktyg som fortfarande är exprimentella.
I en forskningsrapport som publicerades den 28 juni 2023 av Rezilion, en säkerhetsplattform för automatiserad distribution av mjukvara, konstaterade forskare att de första projekten som utvecklas i open source-miljön, inklusive över 30 000 ChatGPT-relaterade projekt på GitHub, till stor del är osäkra.
Överraskande nog förväntas risken öka med det snabba införandet av AI i hela näringslivet. Detta kräver snabba åtgärder för att förbättra säkerhetsstandarderna samt metoderna för utveckling, användning och underhåll av generativ AI-teknik, säger Yotam Perkal, chef för säkerhetsforskning på Rezilion, i en intervju med Dark Reading, en nyhetsblogg som fokuserar på att analysera och rapportera cyberhot.
Perkal tillägger att sannolikheten för fler riktade attacker och förekomsten av ytterligare säkerhetshål kan öka om inga betydande förbättringar av säkerhetsstandarder och arbetssätt genomförs. Även om Nick Clegg, Metas chef för globala frågor, säger att stora språkmodeller med öppen källkod skulle göra tekniken säkrare och bättre på grund av möjligheten för vem som helst att granska koden, menar experter att detta bara gör sådana programvaror osäkra.
Risker för informationssäkerheten
Förutom cybersäkerhetsriskerna med generativ AI-teknik som Open AI:s ChatGPT, Googles Bard, Microsofts Bing Chat, Meta’s Llama 2 och andra, kan dessa språkmodeller vara den perfekta mardrömmen för informationssäkerheten, vilket experter förklarar i en artikel som publicerats av Forbes.
I artikeln förklarar Terence Jackson, chefsrådgivare inom säkerhet på Microsoft, att ChatGPT:s villkor verkar tillåta plattformen att samla in känslig användardata som webbläsarinformation, IP-adress och surfaktiviteter på olika webbplatser, som sannolikt delas med andra tredjeparter utan användarens samtycke.
Detta introducerar nya attackvägar som hackare kan utnyttja genom att enkelt manipulera plattformen och använda den för skadliga aktiviteter som att generera phishing-mail och skriva skadlig kod, vilket beskrivs i en artikel som publicerades av Wired.
Om man matar in skyddad information i generativa AI-plattformar blir informationen dessutom tillgänglig för andra, vilket innebär att andra användare av plattformen kan komma över företagshemligheter. Vidare finns det en risk att generativ AI genererar felaktiga svar, ger felaktig information och genererar svar som bryter mot upphovsrätten.
Läs mer:
- BlackBerrys pressmeddelande, ”Why Are So Many Organizations Banning ChatGPT?”, 8 augusti 2023
- Dark Reading, ”Open Source LLM Projects Likely Insecure, Risky to Use”, 28 juni 2023
- Dark Reading, ”Generative AI Projects Pose Major Cybersecurity Risk to Enterprises”, 28 juni 2023
- The Guardian, ”Nick Clegg defends release of open-source AI model by Meta”, 19 juli 2023
- Forbes Technology Council, ”Cyber Risks Of Generative AI: Protecting Data Via Responsible Use”, 6 juni 2023
- Wired, ”The Hacking of ChatGPT Is Just Getting Started”, 13 april 2023