<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Chatgpt on Fractional CTO</title><link>https://fractionalcto.es/fr/tags/chatgpt/</link><description>Recent content in Chatgpt on Fractional CTO</description><generator>Hugo</generator><language>fr</language><lastBuildDate>Mon, 23 Mar 2026 17:59:59 +0100</lastBuildDate><atom:link href="https://fractionalcto.es/fr/tags/chatgpt/feed.xml" rel="self" type="application/rss+xml"/><item><title>Pourquoi les ChatBots hallucinent-ils ?</title><link>https://fractionalcto.es/fr/pourquoi-les-chatbots-hallucinent/</link><pubDate>Thu, 05 Oct 2023 10:28:23 +0000</pubDate><guid>https://fractionalcto.es/fr/pourquoi-les-chatbots-hallucinent/</guid><description>&lt;p&gt;Ceux d&amp;rsquo;entre vous qui ont utilisé ChatGPT, Google Bard ou des outils similaires, ont probablement constaté que parfois ces chatbots inventent les réponses à nos questions. C&amp;rsquo;est ce que l&amp;rsquo;on appelle communément les hallucinations.&lt;/p&gt;
&lt;p&gt;Pour comprendre pourquoi elles se produisent, la première chose est de comprendre à un niveau très basique comment ces chatbots fonctionnent. L&amp;rsquo;élément fondamental est constitué par les modèles de langage (LLMs, &lt;em&gt;large language models&lt;/em&gt;). Ces modèles sont entraînés sur de grandes quantités de données, telles que des pages web sur Internet et des livres du domaine public, entre autres. La tâche des LLMs est d&amp;rsquo;essayer de prédire le mot ou la séquence de mots suivante à partir d&amp;rsquo;un texte que l&amp;rsquo;utilisateur saisit. Par exemple, si nous posons une question, le modèle prédit les mots juste après cette question. Comme le modèle a été entraîné sur des millions de documents, il est probable que dans un (ou plusieurs) de ces documents, il ait vu une question similaire, accompagnée de la réponse. Grosso modo, le LLM fonctionne comme un modèle statistique : d&amp;rsquo;abord, pendant son entraînement, il apprend la probabilité que deux mots ou plus aillent ensemble, puis lors de son utilisation, il utilise cette probabilité pour prédire la prochaine séquence de mots ;&lt;/p&gt;</description></item></channel></rss>