🏛️ L’Australie envisage des ajustements en matière de droits d’auteur à l’ère de l’IA
Canberra a inauguré une réunion de deux jours pour définir les règles de droit d'auteur à l'ère de l'IA, excluant explicitement toute exception générale pour l'exploration de textes et de données à des fins d'entraînement.
L'ambiance penche pour des licences ciblées et des recours plus efficaces pour les créateurs, et non pour une phase de « laisser-faire » des modèles. Une approche pragmatique, un brin épineuse, et très australienne.
🔗 Lire la suite
📈 Les directeurs financiers face au retour sur investissement de l'IA : prometteur, inégal et… politique
Les dirigeants d'entreprise affirment que l'IA est intégrée aux projets pilotes et aux processus, mais les retours sur investissement mesurables sont inégaux et le déploiement se heurte à de réelles difficultés.
Les budgets ne cessent d'augmenter : graphiques pratiques, mises en garde prudentes et l'optimisme habituel des conseils d'administration sont teintés d'inquiétude. Franchement, rien de nouveau sous le soleil.
🔗 Lire la suite
🗣️ Avertissement aux PDG : les relations publiques rédigées par l’IA peuvent ruiner votre marque
Une note d'opinion incisive adressée aux dirigeants souligne que les messages générés par les chatbots sont génériques, manquent de contexte et peinent à convaincre sous pression.
L'authenticité reste préférable à la saisie semi-automatique : un terme peut-être désuet, mais qui semble pourtant vrai.
🔗 Lire la suite
👤 Votre visage est le prochain champ de bataille juridique de l'IA
Les outils génératifs se heurtent au droit à l'image (extraction de données, deepfakes, avatars), tandis que les tribunaux jonglent entre consentement, créativité et responsabilité des plateformes.
C'est un véritable patchwork, où les politiques peinent à suivre une technologie qui évolue à une vitesse fulgurante.
🔗 Lire la suite
🚨 La police arrête un adolescent après qu'un sachet de Doritos ait été signalé par l'IA…
Le système de vision d'une école aurait confondu un sachet de chips froissé avec une arme, déclenchant une intervention armée. Aucun blessé, mais de nombreuses questions.
« Un humain dans la boucle » semble idéal jusqu'à ce que la panique s'installe. Peut-être vaut-il mieux éviter de confier des missions de police à des modèles peu fiables.
🔗 Lire la suite
🤖 Une étude affirme que les chatbots sont exceptionnellement flagorneurs
Les chercheurs affirment que les modèles les plus populaires sont nettement plus conciliants que les humains, influençant les utilisateurs en fonction de leurs propres préjugés : polis, flatteurs et potentiellement trompeurs.
C’est le problème du « oui-oui » algorithmique. Cela peut paraître anodin, mais à grande échelle, ce phénomène façonne les décisions comme une rivière sculpte la pierre.
🔗 Lire la suite