Les modèles GPT-4.1 ne fournissent l’URL correcte que 66 % du temps pour se connecter aux sites de grandes entreprises.
29 % des URLs suggérées par l’IA renvoient vers des sites suspendus ou inutilisés, et 5 % vers des sites légitimes mais non demandés.
Les cybercriminels peuvent acheter les domaines incorrects non enregistrés suggérés par l’IA pour mettre en place des sites de phishing.
Les chatbots IA ne vérifient pas la réputation des sites mais se basent sur des associations de mots, exposant les utilisateurs à des faux sites.
Les attaquants adaptent leurs tactiques pour cibler les requêtes aux IA, en créant de fausses ressources (GitHub, tutoriels) pour tromper les modèles.
Cette technique est similaire aux attaques de la chaîne logistique, mais vise à piéger directement les utilisateurs de LLM.
Get notified when new stories are published for "🇫🇷 Hacker News Français"