KAKO PRIJEPOLJE INFO SAZNAJE – Nedavna situacija u firmi Meta, koja je vlasnik popularnih platformi kao što su Facebook, Instagram i WhatsApp, bacila je svetlo na potencijalne opasnosti vezane za upotrebu veštačke inteligencije (AI) unutar kompanija. Naime, incident je počeo kao običan tehnički upit postavljen na internom forumu. Nakon što je jedan zaposleni zatražio pomoć, drugi inženjer je aktivirao AI agenta u nadi da će dobiti brzo rešenje. Nažalost, AI je dao ne samo pogrešan savet, već i konkretne korake koji su omogućili pristup osetljivim podacima, koji inače nisu bili dostupni široj grupi zaposlenih.
Prema izvorima, incident je trajao oko dva sata pre nego što je kompanija reagovala, zatvorivši pristup tim podacima. Iako su ti podaci bili zaštićeni, AI je svojim uputstvima omogućio pristup zaposlenima koji nisu imali ovlašćenje. Srećom, Meta je potvrdila da nije došlo do zloupotrebe korisničkih podataka i da situacija nije rezultat spoljnog napada.
Interesantno je to što su AI agenti, kao alat koji se koristi unutar kompanije, postali uobičajeni „saradnici“ inženjera, te se sve češće koriste pri donošenju odluka. Ipak, stručnjaci ukazuju na problem – AI ne shvata posledice svojih preporuka. Iako može ponuditi tehnički tačno rešenje, često zaboravlja na kontekst i etičke aspekte, što može dovesti do ozbiljnih bezbednosnih problema.
Ovaj incident je podstakao debatu o većim rizicima koje AI agenti predstavljaju za velike kompanije, s obzirom na to da mogu izazvati značajne bezbednosne propuste. Stručnjaci naglašavaju da bi u budućnosti veći problemi u tehnološkim firmama mogli nastati ne zbog hakerskih napada, već zbog pogrešnih odluka koje donosi veštačka inteligencija.
Sve to ukazuje na to da se industrija nalazi u fazi eksperimentisanja s AI, te je jasno da greške poput ove mogu imati dalekosežne posledice. Veštačka inteligencija više nije samo pomoćni alat, već postaje ključni deo sistema za upravljanje velikim količinama podataka, što dodatno naglašava potrebu za pažljivijom upotrebom i nadzorom.
Izvor: Kurir.







