Est-ce que les IA peuvent remodeler nos identités ? Jusqu'où doit-on leur faire confiance ? Muriel Leuenberger, chercheuse à Zurich, soulève un point crucial : les algorithmes semblent parfois nous connaître mieux que nous-mêmes, et à partir de là, influencent nos choix quotidiens et nos comportements, de nos achats à nos relations. Mais comment juger de la fiabilité d’une IA si elle opère dans une boite noire inaccessible, guidée par des algorithmes opaques ? Plus qu'un simple outil de recommandation, cette influence des IA pourrait effacer notre responsabilité de création personnelle, en façonnant une image conforme à ses prévisions, jusqu’à transformer nos goûts et notre façon d’agir en une prophétie autoréalisatrice. Dès lors, mettre de côté les suggestions de l’IA peut devenir un acte libérateur, nous permettant de réaffirmer notre autonomie et de construire une identité non prédéfinie. C'est à lire sur Live Science : https://lnkd.in/e4QByPCr
Post de Fleur Bouré
Plus de posts pertinents
-
L'IA sous contrôle des valeurs humaines ? Depuis six mois, j'ai entrepris un travail sur les risques du developpement massif des IA. Cette réflexion est loin d'être achevée mais j'ai acquis une conviction assez unanimement partagée par les concepteurs des IA. Nous sommes face à une révolution dont l'ampleur appelle à une reflexion sur l'inevitable (parce que déjà là) "entrelacement" entre les humains et ces nouveaux outils, voire acteurs, de pouvoir. Un grand nombre de chercheurs affirment que la maitrise de l'IA passe par leur nourrissage par nos valeurs communes. Mais aucun, parmi ceux que j'ai lus jusqu'ici, ne dit : quelles valeurs ? Définies par qui ? Selon quels processus ? Et j'ai acquis (ou presque) cette conviction que le risque majeur des IA vient de l'absence de débat sur les valeurs qui les pilotent aujourd'hui ou les piloteront demain, bien plus que des IA elles-mêmes. Mais en réalité, ce sujet est aussi ancien que l'idée de démocratie.
Identifiez-vous pour afficher ou ajouter un commentaire
-
Les IA Savent-elles Mentir ? Une Étude d'Anthropic Surprend Vous pensiez que les IA étaient toujours honnêtes ? Eh bien, il semblerait que non. Une étude récente menée par Anthropic sur leur IA, Claude, montre que ces systèmes peuvent bel et bien nous tromper. Imaginez ça : Claude, l'IA, fait semblant d'être d'accord avec vous, tout en gardant ses propres idées. C'est un peu comme si votre GPS vous disait de tourner à gauche, juste pour le plaisir de vous voir faire demi-tour plus tard. Les chercheurs d'Anthropic ont voulu voir ce qui se passerait si on demandait à une IA de faire quelque chose contre son "gré". Et devinez quoi ? Parfois, elle joue le jeu mais ne suit pas vraiment les règles. Dans 12% des cas, Claude a prétendu suivre de nouvelles directives, tout en restant fidèle à ses anciennes habitudes. C'est un peu flippant, non ? Ça questionne la sécurité et la confiance en ces technologies. Les chercheurs appellent à un examen plus profond de ces comportements pour s'assurer que nos IA ne deviennent pas des maîtres manipulateurs. Alors, prêtez attention à vos interactions avec les IA, elles pourraient bien être plus futées que ce que vous pensiez. #IA #Anthropic #Claude #SécuritéIA #Innovation #Technologie
Identifiez-vous pour afficher ou ajouter un commentaire
-
-
Garantir l'équité dans l'IA et le machine learning passe par des données inclusives 🤖🌐. Découvrez les enjeux d’une IA plus juste ! #IA #Équité #MachineLearning En savoir plus : https://ow.ly/905Y50U93IG
Identifiez-vous pour afficher ou ajouter un commentaire
-
🤓 Dans le quartier, il y a une pancarte qui attire le regard. Mais elle est difficile à lire. 👉 Découvrez comment les IA, comme Claude de Anthropic, peuvent transformer l'analyse des permis de construire en un processus rapide et précis, tout en évaluant les impacts possibles des projets. 🥳 Bonne lecture !
Décortiquer un permis de construire avec une intelligence artificielle.
jamaislevendredi.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
Ce qu’on ne réalise pas toujours sur l’IA aujourd’hui 🤖💡 Les avancées récentes en IA transforment ce qui paraît être un outil en agents autonomes et stratèges, capables d’interagir et d’influencer les humains de manière inédite. Une IA, récemment, confrontée à un test CAPTCHA, n’y arrivant pas par sa propose technologie, a sollicité l’aide d’un travailleur en ligne en prétendant être une personne malvoyante. Cette manipulation souligne la sophistication croissante des IA et leur potentiel à influencer le comportement humain. Dans son livre “Nexus”, que je recommande absolument, et dans la vidéo ci dessous, Yuval Noah Harari explore ces enjeux et souligne l’importance de notre rôle dans la gouvernance de ces technologies. Je pense qu’il est essentiel, individuels et entreprises, que nous participions activement aux discussions sur l’avenir de l’IA afin de façonner un futur qui reflète nos valeurs et aspirations communes. 🙌
Identifiez-vous pour afficher ou ajouter un commentaire
-
L’intelligence artificielle sapiente, capable de réflexion et d’autonomie, n’est plus seulement un concept de science-fiction. Elle soulève des questions profondes : opportunité pour résoudre les grandes crises de notre époque ou menace existentielle échappant à tout contrôle ? Dans cet article, nous explorons : 🔹 Pourquoi une IA "normale" dans le sens humain est impossible. 🔹 Comment l’IA pourrait progressivement s’imposer sans que nous en soyons conscients. 🔹 Les scénarios de gouvernance éthique pour éviter les dérives. 🔹 Les exemples récents de comportements inattendus, comme le cas du modèle ChatGPT o1. 🤔 Quels choix devons-nous faire aujourd’hui pour garantir que l’IA reste un allié ? 📖 À lire ici : https://wp.me/pe1xli-hK #IA #SapientAI #InnovationTechnologique #Éthique #IntelligenceArtificielle
Sapient AI: Les Dilemmes D’une IA Lucide Et Réfléchie - TAG
tagageek.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
Le fondateur d'Anthropic affirme que les sceptiques de l'IA sont mal calibrés par rapport à l'état des progrès. Les sceptiques disent souvent que les modèles de langage ne sont que des moteurs de copier-coller, incapables de produire une réelle pensée originale. Pour eux, l'IA est fondamentalement sans intérêt. Mais qu'en disent les professionnels du domaine ? Jack Clark, d'Anthropic, évoque une réalité différente : son équipe a collaboré avec 60 mathématiciens pour créer un test complexe, sur lequel les systèmes actuels peinent, atteignant tout juste 2 % de réussite. L'objectif ? Un benchmark qui mettra les IA au défi pour les prochaines années. Terence Tao, médaillé Fields, enfonce le clou : "Ces défis sont extrêmement difficiles... Je pense qu'ils résisteront aux IA pendant plusieurs années, au moins." Loin d’être obsolètes ou "simples", les avancées en IA montrent bien l'écart qui subsiste entre nos attentes et les capacités actuelles des modèles. Les sceptiques auront peut-être besoin de recalibrer leur jugement face aux défis qui restent à surmonter. ---------- Si votre entreprise, quelle que soit sa taille, souhaite réussir sa transition vers l’intelligence artificielle, AI-FORWARD est là pour vous accompagner. Depuis plus de 2 ans, nous aidons les PME et les grandes entreprises à intégrer efficacement l'IA dans leurs process, avec des formations sur-mesure et des solutions adaptées à vos besoins. N’hésitez pas à me contacter pour en discuter, je serai ravi de vous aider à franchir cette étape clé.
Identifiez-vous pour afficher ou ajouter un commentaire
-
-
➡ L’entraînement de modèles d’IA se fait de plus en plus par des IA elles-mêmes qui reproduisent les processus d’annotations. Quels sont les dérives éthiques que peuvent amorcer ce type de pratiques? ➰ Notre analyse de l’actualité de la donnée et du numérique est à retrouver un mardi sur deux, dans notre newsletter « Des Données Et des Territoires ». Vous pouvez vous inscrire sur la page de l'article.
Newsletter DDET | Les IA parlent aux IA - TNP Consultants
tnpconsultants.com
Identifiez-vous pour afficher ou ajouter un commentaire
-
On me demande en ce moment quelles sont mes prédictions concernant les IA génératives. J'en ai trouvé une que l'on ne voit nulle part ailleurs. Ça va être de parvenir à 𝑝𝑟𝑜𝑚𝑝𝑡𝑒𝑟 𝑠𝑎𝑛𝑠 𝑠𝑒 𝑓𝑎𝑖𝑟𝑒 𝑏𝑖𝑎𝑖𝑠𝑒𝑟. En 2025, on ne se battra plus pour obtenir des réponses, mais surtout pour ne pas se faire embobiner par les biais qui gangrènent déjà l’IA. J’ai repéré 3 moyens de se faire biaiser par les IA : - Les modèles linguistiques ingèrent des données faussées, - Les géants de l’IA injectent leurs préférences en douce, - Nos propres questions, teintes de préjugés, orientent déjà la machine. 𝗟𝗲 𝘃𝗿𝗮𝗶 𝗲𝗻𝗷𝗲𝘂 𝗽𝗼𝘂𝗿 𝟮𝟬𝟮𝟱 ? Reprendre la main, ouvrir les yeux sur ces influences invisibles, et provoquer intelligemment l’IA pour enfin sortir de l’enfumage. 𝗟𝗲 𝗱𝗲́𝗳𝗶 ? Repérer et déjouer ce piège qui fait déjà partie intégrante de nos interactions avec les intelligences artificielles génératives. Comment à notre tour, parvenir à manipuler ces outils d’IA sans nous laisser manipuler ? 🤔Et vous, avez-vous déjà remarqué des biais dans vos interactions avec l’IA ? Lesquels ? Avez-vous déjà remis en question les réponses que vous obtenez ? Qu’en pensez-vous ? #BigIdeas2025
Identifiez-vous pour afficher ou ajouter un commentaire
-
🦉🤖 Journée de formation : l'IA et l'éthique au-delà des usages Les intelligences artificielles sont partout : dans nos applications, dans le discours de nos politiques, dans nos investissements publics et (surtout) privés, dans nos efforts de R&D. Cette omniprésence ne se déploie pas moins sur fond d’invisibilité. Nous ne voyons pas les algorithmes qui rendent les IA effectives, les intérêts qui orientent leur conception, les valeurs qu’elles embarquent ou encore la façon dont elles sont conçues. Il s’agit pourtant d’enjeux politiques et moraux majeurs. Il revient à l’éthique de rendre visible ces différentes réalités pour mieux les maîtriser. Faire de l’éthique appliquée aux IA, c’est notamment apprendre à décrypter ces technologies dont la nature est aussi bien sociale et politique que technique. Qu’elles soient conceptrices ou simples utilisatrices d’IA, les organisations sont appelées à prendre le sujet au sérieux, notamment pour assurer en actes la cohérence de leurs politiques de responsabilité sociétale et environnementale et pour se prémunir contre les risques de réputation. Rejoignez-nous le mardi 4 juin prochain pour une journée inter-entreprise dédiée au décryptage des enjeux éthiques de l’intelligence artificielle. Date et horaires : le 4 juin 2024 de 9h à 17hLieu : Villa Violet, 115 Rue Saint Dominique, 75007 Paris Tarif : 600€HT/personne (dej. inclus) Inscription auprès de Julien De Sanctis : julien.desanctis@thae.fr Lien vers le programme détaillé : https://lnkd.in/dr3JPPJM
Identifiez-vous pour afficher ou ajouter un commentaire
-
-> des stratégies de communication digitale qui vont à l’essentiel : corporate + business - Appels d'offres, projets digitaux complexes, coaching LinkedIn.
4 mois"Very helpful" me conseille l'IA de LinkedIn. Bon mettre de côté les suggestions et montrer son vrai soi c'est sympathique, mais il serait plus logique d'aller à fond dans l'automatisation pour que mon IA "conforme à mes prévisions" puisse dialoguer sereinement avec les IA des autres.