Researchers at ETH Zurich created a jailbreak attack that bypasses AI guardrails

Publikováno: 27.11.2023

Celý článek

Artificial intelligence models that rely on human feedback to ensure that their outputs are harmless and helpful may be universally vulnerable to so-called ‘poison’ attacks.

Nahoru
Tento web používá k poskytování služeb a analýze návštěvnosti soubory cookie. Používáním tohoto webu s tímto souhlasíte. Další informace