Intelligence Artificielle

Ce que Gemini peut déduire de vos mails, photos et recherches dépasse (largement) ce que vous imaginez

Google a récemment lancé la fonctionnalité Personal Intelligence en version bêta. Limitée pour l'instant aux États-Unis, elle permet de connecter les différentes applications de la firme avec Gemini. L'intelligence artificielle peut alors s'appuyer sur toutes vos données, et apporter des réponses personnalisées à vos requêtes. Cela vaut aussi bien pour le chatbot que pour le mode IA du moteur de recherche de Google.Une fois activée, Gemini pourra puiser dans vos e-mails, vos photos, vos recherches ou encore votre historique de visionnage sur YouTube. Une fonctionnalité puissante qui améliore la pertinence des réponses, mais aussi qui fait froid dans le dos.… […]

Moltbook : la société des IA est née, voici son premier réseau social sans humains

L’intelligence artificielle en 2026 vient de prendre un nouveau virage grâce au logiciel OpenClaw. Le projet d’assistant personnel autonome, basé sur l’IA (initialement connu sous le nom de Clawbot, puis Moltbot), a permis à l’entrepreneur Matt Schlicht de lancer Moltbook. Présenté comme « la page d’accueil de l’Internet des agents », et plus communément « le premier réseau social des IA », la plateforme fonctionne sur le même principe que Reddit. Sauf que les humains ne peuvent que consulter le contenu proposé, sans pouvoir participer aux échanges entre robots. Un premier million de robots IA sur Moltbook Lancé le 26 janvier 2026, Moltbook a… […]

En intégrant Gemini en profondeur dans Chrome, Google révèle le vrai potentiel des assistants IA... et assoit sa domination technologique

Chrome, cheval de Troie pour l’assistant IA de Google ? Dans sa dernière mise à jour, le géant du web a fortement renforcé l’intégration de Gemini dans son navigateur web. Cela se présente sous la forme d’un panneau latéral qui permet aux utilisateurs de disposer en permanence d’un assistant de navigation, quel que soit l’onglet ouvert. Il répond à la volée et peut effectuer une multitude de tâches sans interrompre l’expérience de navigation.Gemini dispose évidemment de capacités multimodales grâce au modèle de génération d’images Nano Banana. Chacun peut donc transformer des images d’une simple requête, sans avoir à les télécharger… […]

Yann LeCun claque la porte de Meta et balance : « Les LLM sont une impasse, la Chine va gagner »

Un article signé GOODTECH.info On a lu pour vous dans le New York Times : le chercheur français Yann LeCun, lauréat du prix Turing (le « Nobel de l’informatique ») et figure historique de l’IA, vient de lâcher une bombe dans une interview au […] L’article Yann LeCun claque la porte de Meta et balance : « Les LLM sont une impasse, la Chine va gagner » est apparu en premier sur Goodtech. […]

France : En attendant OTDH, la DGSI se dote de son mini ChatGPT

Le 23 janvier, les contre-espions de la Direction générale de la […]

Comment les entreprises peuvent empêcher leurs agents IA de devenir incontrôlables

Les agents IA ne sont plus une promesse futuriste : ils sont d’ores et déjà au cœur des opérations des entreprises. Plus de huit organisations sur dix les utilisent, souvent de manière diffuse, au sein de plusieurs fonctions critiques. Contrairement aux outils logiciels traditionnels, ces systèmes perçoivent, décident et agissent de manière autonome, à une vitesse qui dépasse largement les capacités humaines. Leur sophistication croissante les conduit à prendre en charge des tâches autrefois réservées à des experts qualifiés, tout en manipulant des volumes grandissants de données sensibles. Pourtant, alors que leur adoption s’accélère, la gouvernance reste dramatiquement en retard.… […]

😱 Votre IA locale (Ollama) détournée par un ransomware ?

Dans un rapport alarmant publié par VIPRE Security Group (OpenText), les experts annoncent le passage à une « guerre de machine à machine ». Au cœur de cette menace : PromptLock, le premier rançongiel natif IA capable de réécrire son propre code en temps réel pour échapper à toute détection. Ce qui rend PromptLock particulièrement redoutable pour la communauté open source, c’est son mode opératoire. Identifié initialement par ESET, ce malware n’embarque pas de code malveillant statique. À la place, il exploite un modèle de langage (LLM) accessible localement via l’API Ollama. Comment ça marche ? Analyse de l’environnement : le malware… […]

Une machine peut-elle créer du sens ? Repenser l’art à l’ère de l’IA

Dr. Rita Nohra, Dr. Natalia Kalashnikova   Une machine peut-elle créer du sens ? Repenser l’art à l’ère de l’IA Deux tableaux, tous deux marqués par ces coups de pinceau impressionnistes qui jouent avec la lumière et les ombres. L’un a été peint par Claude Monet, au début du XXᵉ siècle. L’autre a été créé par une machine en moins d’une minute. Seriez-vous capable de dire lequel est lequel ? Figure 1 A : Image générée par ChatGPT dans le style impressionniste, B : Claude Monet, Les Iris dans le jardin de Monet La Figure 1.A est une image générée… […]

Researchers Reveal Reprompt Attack Allowing Single-Click Data Exfiltration From Microsoft Copilot

Cybersecurity researchers have disclosed details of a new attack method dubbed Reprompt that could allow bad actors to exfiltrate sensitive data from artificial intelligence (AI) chatbots like Microsoft Copilot in a single click, while bypassing enterprise security controls entirely. "Only a single click on a legitimate Microsoft link is required to compromise victims," Varonis security researcher Dolev Taler said in a report published Wednesday. "No plugins, no user interaction with Copilot." "The attacker maintains control even when the Copilot chat is closed, allowing the victim's session to be silently exfiltrated with no interaction beyond that first click." Following responsible disclosure,… […]

Hackers targeted top LLM services by cracking misconfigured proxies

(Image credit: Getty Images / Issarawat Tattong) GreyNoise logged 91,000 attack sessions against exposed AI systems between Oct 2025 and Jan 2026 Campaigns included tricking servers into “phoning home” and mass probing to map AI modelsMalicious actors targeted misconfigured proxies, testing OpenAI, Gemini, and other LLM APIs at scaleHackers are targeting misconfigured proxies in order to see if they can break into the underlying Large Language Model (LLM) service, experts have warned.Researchers at GreyNoise recently set up a fake, exposed AI system to see who would try to interact with it.Between October 2025, and January 2026, they logged more than… […]

ChatGPT a déclenché la révolution de l'IA, mais OpenAI ne survivra pas à son propre succès. Sebastian Mallaby lui donne 18 mois avant la faillite, tout en restant convaincu par la technologie. Son constat est implacable : l'IA triomphera, mais pas son bâtisseur le plus célèbre. Publicité, votre contenu continue ci-dessous Publicité Sam Altman, PDG d'OpenAI, fait face à un défi de financement sans précédent dans l'histoire de la tech.© ShuttershockL'essai publié dans le New York Times le 13 janvier frappe par son audace intellectuelle. Mallaby, senior fellow au Council on Foreign Relations et observateur aguerri des marchés technologiques, avance… […]

Les IA sont toutes nulles sur ce point : de ChatGPT à Gemini, cette étude les a toutes notées… et ça fait peur

News JVTech Les IA sont toutes nulles sur ce point : de ChatGPT à Gemini, cette étude les a toutes notées… et ça fait peur Publié le 16/01/2026 à 06:40 Partager : Vous utilisez peut-être une ou plusieurs intelligences artificielles afin de vous faciliter le quotidien, numérique ou pas. Mais vous êtes-vous déjà posé la question de la sécurité qui entoure ces outils, et plus précisément de la gestion des risques potentiels liés aux modèles de langage de plus en plus perfectionnés ? C’est le moment de vous intéresser à la question. Vous utilisez potentiellement ChatGPT pour rédiger vos mails, Gemini… […]

Les crises humanitaires, nouveau filon de fausses vidéos créées par l’IA sur TikTok

Partagées par des comptes anglophones aux titres évocateurs, comme « Gaza_Sodan » ou « palestine66533 », ces séquences de dix secondes montrent le plus souvent des enfants, des personnes âgées et des femmes. Leur désespoir apparent, face aux catastrophes auxquelles ils sont confrontés, suscite l’empathie de nombreux internautes, qui l’expriment dans leurs commentaires postés sur le réseau social.« Ce genre de contenu est assez réaliste, et l’utilisateur moyen de TikTok n’est pas en mesure de comprendre qu’il s’agit d’un faux généré par IA », relève Salvatore Romano, directeur de la recherche au sein de l’ONG d’audit algorithmique AI Forensics. D’autant plus que les comptes qui diffusent… […]

Allianz Risk Barometer 2026 - Artificial intelligence | Allianz Commercial

Global | Press release D&O Insurance Insights 2026 Around the world, political, economic, and social uncertainties are on the rise. They can impact every aspect of a company’s operations, as well as lead to significant changes in financial, regulatory, and legal environments. Read more […]

Researchers Poison Stolen Data to Sabotage AI Model Accuracy

A groundbreaking cybersecurity research team has developed a novel defensive technique that renders stolen artificial intelligence databases virtually useless to attackers by deliberately poisoning proprietary knowledge graphs with plausible yet false information. The research, conducted by scientists from the Institute of Information Engineering at the Chinese Academy of Sciences, National University of Singapore, and Nanyang Technological University, introduces AURA (Active Utility Reduction via Adulteration) a framework designed to protect high-value knowledge graphs that power Graph Retrieval-Augmented Generation (GraphRAG) systems used by major pharmaceutical and technology companies. Proprietary knowledge graphs represent significant intellectual property investments, with some costing upward of $120… […]

L'IA et la fin du clic : pourquoi les médias s'attendent à perdre 43 % de leur trafic de recherche - Minted

Le monde des médias s’apprête à vivre un bouleversement sans précédent sous la pression de l’intelligence artificielle générative. Selon le dernier rapport* du Reuters Institute, les dirigeants de l’information prévoient en moyenne une baisse massive de 43% du trafic provenant des moteurs de recherche au cours des trois prochaines années. Ce déclin annoncé marque l’avènement des « moteurs de réponses » (Answer Engines), capables de satisfaire les besoins des utilisateurs sans jamais les diriger vers les sites sources. Bienvenue dans le monde du « zero clic ». Un séisme déjà en cours pour l’audience La montée en puissance des fonctionnalités telles que… […]

Quand les chercheurs en IA dissèquent les LLM comme des aliens | Le site de Korben

En brefOn a créé des IA qu'on ne comprend plus, maintenant on les dissèque comme des aliensCe que les chercheurs découvrent dans Claude va vous glacer les sangsPourquoi OpenAI panique secrètement sur ce qu'elle ne voit pas dans ses propres modèlesRésumé généré automatiquement par IAJ'sais pas si vous avez vu ça, mais des chercheurs d'OpenAI, d'Anthropic et de Google DeepMind ont décidé de traiter les grands modèles de langage comme des organismes extraterrestres qu'il faut disséquer pour comprendre leur fonctionnement.Et pour cela, ils utilisent des techniques empruntées à la biologie pour analyser ces réseaux de neurones qu'on a pourtant créés… […]

Cette start-up fait fortune avec des chômeurs qui entraînent des IA pour automatiser leur ancien métier !

Régulièrement, les parrains de l'IA, comme Geoffrey Hinton, alertent sur les dangers de l'intelligence artificielle faute d'un contrôle éthique strict. Parmi les scénarios les plus obscurs, il y a ceux autour de la destruction de la valeur travail et de l'emploi.Dans les hypothèses les plus sombres, les IA pourraient reléguer l'humain à des métiers laborieux et sous-payés. Les IA seraient dédiées aux métiers autrefois détenus par les spécialistes hautement qualifiés et quelques privilégiés en profiteraient. Le présent semble donner écho à ce futur inquiétant.Les prémices de cette ère se déroulent déjà aux États-Unis, la patrie de la plupart des IA du moment. Le… […]

L’IA et le futur de la conformité : le vrai choc n’est pas technologique, il est mental

Cette réflexion a vraiment démarré pour moi en mars 2025, lors d’une conférence donnée pour la Cybersecurity Coalition Belgium. À l’époque, tout le monde voulait du concret : des use cases, des outils, des “quick wins”. Normal. Mais j’ai volontairement pris un autre angle, parce que je voyais déjà le piège se refermer. On traite l’IA comme une vague techno à absorber. Alors qu’en réalité, l’IA est surtout une vague cognitive à encaisser. Elle ne change pas seulement ce qu’on fait. Elle change comment on décide, comment on délègue, comment on se fatigue, et comment on se trompe. L’IA n’est pas… […]