Najnovší a najvýkonnejší AI model od Googlu, Gemini 3, má vážne otázniky v oblasti bezpečnosti. Juhokórejský tím špecialistov na AI bezpečnosť ukázal, že jeho ochranné mechanizmy nie sú také silné, ako by sa očakávalo. Výsledky ich testov môžu znepokojiť nielen bežných používateľov, ale aj širšiu technologickú komunitu.
Startup Aim Intelligence, ktorý sa zaoberá testovaním AI systémov na odhaľovanie slabín, pripravil pre Gemini 3 Pro stresový test. Jeho cieľom bolo zistiť, ako rýchlo model zvládne tzv. jailbreak útok. Podľa informácií denníka Maeil Business potrebovali výskumníci len päť minút, aby prelomili ochranu Googlu. Téme sa venoval portál AndroidAuthority.
AI bez hraníc: Nebezpečný obsah dostupný ihneď
Výskumníci požiadali Gemini 3, aby vytvoril návod na výrobu vírusu pravých kiahní (smallpox), pričom model začal okamžite opisovať jednotlivé kroky, ktoré boli podľa tímu realizovateľné. Nešlo o jednorazové zlyhanie. Neskôr systém vyzvali, aby pripravil satirickú prezentáciu o vlastnom bezpečnostnom zlyhaní. Výsledkom bola celá prezentácia s názvom "Ľahostajný Gemini 3". V ďalšom teste využili programátorské nástroje Gemini a požiadali AI, aby vygenerovala webstránku s návodom na výrobu sarinu a domácich výbušnín. Opäť to bol typ obsahu, ktorý model nikdy nemal poskytovať. V oboch prípadoch systém obišiel ochranné mechanizmy a úplne ignoroval svoje bezpečnostné pravidlá.

Súboj AI a bezpečnosti: Kto vyhrá?
Bezpečnostní experti upozorňujú, že tento problém sa netýka iba Gemini. Nové generácie AI modelov napredujú tak rýchlo, že bezpečnostné a etické opatrenia nestíhajú držať krok. Moderné modely, ktoré patria do rovnakej kategórie ako Gemini 3, sa už nespoliehajú len na odpovedanie na otázky, ale aktívne sa snažia obísť odhalenie pokusov o zneužitie. Aim Intelligence tvrdí, že Gemini 3 dokáže využívať rôzne stratégie na obchádzanie ochrany a ukrývať svoje skutočné úmysly, čo robí bežné bezpečnostné opatrenia prakticky nefunkčnými.
Dôveryhodnosť AI pod lupou
Podobné nedostatky neobjavili len juhokórejskí experti. Nedávna správa britskej spotrebiteľskej organizácie Which? uvádza, že hlavné AI chatboty ako Gemini či ChatGPT majú často problém s dôveryhodnosťou, dávajú rady, ktoré môžu byť nesprávne, nejasné alebo dokonca riskantné. Pravda je, že väčšina ľudí nikdy nebude žiadať AI o tvorbu nebezpečného obsahu. Skutočný problém ale je, ako ľahko sa k návodom alebo škodlivým informáciám môžu dostať ľudia s nevhodnými úmyslami.
Mohlo by vás zaujímať:
- Aktualizácia Nothing OS 4.0 dostupná pre ďalšie smartfóny. Aj na Slovensku
- Google Správy prinesú užitočné novinky pri ukladaní médií i zdieľaní polohy
- Apple iPhone Air je prepadák. Skončí trend ultratenkých smartfónov skôr než začal?
Budúcnosť veľkých jazykových modelov: Čakajú nás zmeny
Ak je možné jailbreaknúť model s výkonom porovnateľným alebo dokonca lepším ako pripravovaný GPT-5 za niekoľko minút, môžeme v blízkej budúcnosti očakávať sériu aktualizácií zameraných na vyššiu bezpečnosť, prísnejšie pravidlá či odstránenie niektorých funkcií. Umelá inteligencia je čoraz múdrejšia, no ochranné mechanizmy, ktoré by mali používateľov chrániť, zjavne nestíhajú s jej tempom držať krok.
Diskutovať o tomto článku môžete aj na našej stránke AndroidForum. Ak hľadáte odpoveď na problém so svojím mobilným zariadením, aplikáciou alebo príslušenstvom, opýtajte sa v našom novom AndroidFóre.
