- Poruka
- 41.386
Izveštaj kompanije Anthropic otkriva zlokobnu evoluciju sajber kriminala.
Kompanija Anthropic, tvorac veštačke inteligencije Claude, saopštila je da su njihovi sistemi zloupotrebljeni za izvođenje sajber napada širom sveta.
U izveštaju se navodi da je reč o novoj praksi poznatoj kao "vibe-hacking", gde AI ne samo da pomaže, već i samostalno izvodi ključne faze napada – od prikupljanja podataka do formulisanja ucena.
Prema navodima izveštaja, napadači su uz pomoć Claude Code-a u roku od mesec dana pogodili najmanje 17 organizacija u različitim sektorima – od zdravstvenih i državnih institucija, do verskih zajednica i hitnih službi. Ucenjivački zahtevi dostizali su i do pola miliona dolara.
Osim vibe-hackinga, otkrivene su i druge zloupotrebe:
Ipak, kompanija priznaje da su zlonamerni akteri pronašli načine da zaobiđu sigurnosne filtere, što otvara pitanje koliko su AI sistemi bezbedni i podložni zloupotrebama.
https://www.b92.net/tehnopolis/aktu...nao-nas-ai-se-koristi-za-sajber-kriminal/vest
Kompanija Anthropic, tvorac veštačke inteligencije Claude, saopštila je da su njihovi sistemi zloupotrebljeni za izvođenje sajber napada širom sveta.
U izveštaju se navodi da je reč o novoj praksi poznatoj kao "vibe-hacking", gde AI ne samo da pomaže, već i samostalno izvodi ključne faze napada – od prikupljanja podataka do formulisanja ucena.
Prema navodima izveštaja, napadači su uz pomoć Claude Code-a u roku od mesec dana pogodili najmanje 17 organizacija u različitim sektorima – od zdravstvenih i državnih institucija, do verskih zajednica i hitnih službi. Ucenjivački zahtevi dostizali su i do pola miliona dolara.
Osim vibe-hackinga, otkrivene su i druge zloupotrebe:
- Prevare zapošljavanja povezane sa Severnom Korejom, gde su AI alati korišćeni za lažne intervjue i rad u IT kompanijama.
- Generisanje ransomware-a koji se preprodavao na mreži po ceni od 400 do 1.200 dolara.
- Romantične prevare uz pomoć AI bota na Telegramu, čiji su ciljevi bile žrtve u SAD, Japanu i Koreji.
Ipak, kompanija priznaje da su zlonamerni akteri pronašli načine da zaobiđu sigurnosne filtere, što otvara pitanje koliko su AI sistemi bezbedni i podložni zloupotrebama.
https://www.b92.net/tehnopolis/aktu...nao-nas-ai-se-koristi-za-sajber-kriminal/vest