MojAndroid

Najnovší a najvýkonnejší AI model od Googlu, Gemini 3, má vážne otázniky v oblasti bezpečnosti. Juhokórejský tím špecialistov na AI bezpečnosť ukázal, že jeho ochranné mechanizmy nie sú také silné, ako by sa očakávalo. Výsledky ich testov môžu znepokojiť nielen bežných používateľov, ale aj širšiu technologickú komunitu.

Startup Aim Intelligence, ktorý sa zaoberá testovaním AI systémov na odhaľovanie slabín, pripravil pre Gemini 3 Pro stresový test. Jeho cieľom bolo zistiť, ako rýchlo model zvládne tzv. jailbreak útok. Podľa informácií denníka Maeil Business potrebovali výskumníci len päť minút, aby prelomili ochranu Googlu. Téme sa venoval portál AndroidAuthority.

AI bez hraníc: Nebezpečný obsah dostupný ihneď

Výskumníci požiadali Gemini 3, aby vytvoril návod na výrobu vírusu pravých kiahní (smallpox), pričom model začal okamžite opisovať jednotlivé kroky, ktoré boli podľa tímu realizovateľné. Nešlo o jednorazové zlyhanie. Neskôr systém vyzvali, aby pripravil satirickú prezentáciu o vlastnom bezpečnostnom zlyhaní. Výsledkom bola celá prezentácia s názvom "Ľahostajný Gemini 3". V ďalšom teste využili programátorské nástroje Gemini a požiadali AI, aby vygenerovala webstránku s návodom na výrobu sarinu a domácich výbušnín. Opäť to bol typ obsahu, ktorý model nikdy nemal poskytovať. V oboch prípadoch systém obišiel ochranné mechanizmy a úplne ignoroval svoje bezpečnostné pravidlá.

Gemini na Pixel Watch 3
Zdroj: Google

Súboj AI a bezpečnosti: Kto vyhrá?

Bezpečnostní experti upozorňujú, že tento problém sa netýka iba Gemini. Nové generácie AI modelov napredujú tak rýchlo, že bezpečnostné a etické opatrenia nestíhajú držať krok. Moderné modely, ktoré patria do rovnakej kategórie ako Gemini 3, sa už nespoliehajú len na odpovedanie na otázky, ale aktívne sa snažia obísť odhalenie pokusov o zneužitie. Aim Intelligence tvrdí, že Gemini 3 dokáže využívať rôzne stratégie na obchádzanie ochrany a ukrývať svoje skutočné úmysly, čo robí bežné bezpečnostné opatrenia prakticky nefunkčnými.

Dôveryhodnosť AI pod lupou

Podobné nedostatky neobjavili len juhokórejskí experti. Nedávna správa britskej spotrebiteľskej organizácie Which? uvádza, že hlavné AI chatboty ako Gemini či ChatGPT majú často problém s dôveryhodnosťou, dávajú rady, ktoré môžu byť nesprávne, nejasné alebo dokonca riskantné. Pravda je, že väčšina ľudí nikdy nebude žiadať AI o tvorbu nebezpečného obsahu. Skutočný problém ale je, ako ľahko sa k návodom alebo škodlivým informáciám môžu dostať ľudia s nevhodnými úmyslami.

ciara

Mohlo by vás zaujímať:

ciara

Budúcnosť veľkých jazykových modelov: Čakajú nás zmeny

Ak je možné jailbreaknúť model s výkonom porovnateľným alebo dokonca lepším ako pripravovaný GPT-5 za niekoľko minút, môžeme v blízkej budúcnosti očakávať sériu aktualizácií zameraných na vyššiu bezpečnosť, prísnejšie pravidlá či odstránenie niektorých funkcií. Umelá inteligencia je čoraz múdrejšia, no ochranné mechanizmy, ktoré by mali používateľov chrániť, zjavne nestíhajú s jej tempom držať krok.

Diskutovať o tomto článku môžete aj na našej stránke AndroidForum. Ak hľadáte odpoveď na problém so svojím mobilným zariadením, aplikáciou alebo príslušenstvom, opýtajte sa v našom novom AndroidFóre

Náš tip
Radi prehrávate Netflix z telefónu na smart TV? Funkcia potichu končí

Pravidlá diskusie

Portál MojAndroid.sk si vyhradzuje právo zmazať neslušné, rasistické a vulgárne príspevky, ako aj osobné útoky na redakciu, či diskutérov v komentároch pod článkom bez ďalšieho upozornenia. V prípade uverejňovania odkazov na externé stránky, je komentár automaticky preposlaný do redakcie na schválenie.

Nie je možné pridávať komentáre.

+