USAs modstandere begynder at bruge kunstig intelligens til at udføre eller organisere offensive cyberoperationer som eksempelvis hackerangreb, advarer Microsoft.
Det skriver The Guardian.
Microsoft har investeret milliarder af dollar i virksomheden OpenAI, som står bag chatbotten ChatGPT. Nu har de to selskaber sammen opdaget og afværget trusler, der brugte eller forsøgte at bruge teknologi fra den kunstig intelligens de har udviklet, lyder det fra Microsoft.
I et blogindlæg skriver den amerikanske techgigant, at teknikkerne, som de fremmede lande bruger, har været i »tidlige stadier« af potentielle cyberangreb. Men det er ifølge Microsoft vigtigt at afsløre dem offentligt, fordi amerikanske rivaler udnytter store sprogmodeller til at udvide deres evne til at bryde ind i netværk og udføre såkaldte »indflydelsesoperationer«.
Derudover skriver virksomheden, at det har sporet hackinggrupper, som er tilknyttet russisk militær efterretning, Irans revolutionsgarde samt kinesiske og nordkoreanske regeringer. De har angiveligt arbejdet på hacking-kampagner ved hjælp af generative sprogmodeller.
I et separat blogindlæg forsikrer OpenAI, at dets nuværende GPT-4-chatbot kun tilbyder »begrænsede« muligheder for ondsindede cybersikkerhedsopgaver – »ud over hvad der allerede kan lade sig gøre med offentligt tilgængelige ikke AI-drevne værktøjer«.
Microsoft offentliggjorde fundet, efter at virksomheden har indført et generelt forbud mod statsstøttede hackergrupper, der bruger selskabets ai-produkter.
»Uanset om der er nogen overtrædelse af loven eller nogen overtrædelse af servicevilkårene, ønsker vi bare ikke, at de aktører, vi har identificeret skal have adgang til denne teknologi,« sagde Microsofts vicedirektør for kundesikkerhed, Tom Burt, i et interview med nyhedsbureauet Reuters.
Kina: Smædekampagne
Som svar har talsmanden for Kinas ambassade i USA, Liu Pengyu, sagt, at Kina modsætter sig grundløse smædekampagner og beskyldninger, og at landet blot har iværksat en sikker, pålidelig og kontrollerbar implementering af ai-teknologi til alles bedste.
Microsoft har ikke fundet eksempler på større angreb drevet af kunstig intelligens, men virksomheden har gennem denes research fundet specifikke sikkerhedsfejl og cybermål fra de tidligere nævnte lande.
Det skriver The Washington Post.
Men researchen har ikke løftet sløret for alle potentielle trusler og lukning af mistænksomme konti vil ikke forhindre mulige hackere at istandsætte nye forsøg, lyder det fra Sherrod DeGrippo, Microsofts direktør for trusselsintelligens strategi . Derfor handler det om at forebygge så meget som muligt
»Det er Microsofts rolle, at ramme dem, mens de udvikler sig,« siger Sherrod DeGrippo til The Washington Post.