<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>AI Apps | The .NET Blog</title><link>https://thedotnetblog.com/fr/tags/ai-apps/</link><description>Articles, tutorials and insights from the .NET community.</description><generator>Hugo</generator><language>fr</language><managingEditor>@thedotnetblog (The .NET Blog)</managingEditor><webMaster>@thedotnetblog</webMaster><lastBuildDate>Sun, 26 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://thedotnetblog.com/fr/tags/ai-apps/index.xml" rel="self" type="application/rss+xml"/><item><title>SQL Server 2025 comme Base de Données Prête pour les Agents : Sécurité, Backup et MCP dans un Seul Moteur</title><link>https://thedotnetblog.com/fr/posts/emiliano-montesdeoca/sql-server-2025-agent-ready-security-mcp/</link><pubDate>Sun, 26 Apr 2026 00:00:00 +0000</pubDate><author>Emiliano Montesdeoca</author><guid>https://thedotnetblog.com/fr/posts/emiliano-montesdeoca/sql-server-2025-agent-ready-security-mcp/</guid><description>La partie finale de la série Polyglot Tax aborde les problèmes de production difficiles : sécurité Row-Level unifiée sur les données relationnelles, JSON, graphes et vecteurs, plus intégration MCP.</description><content:encoded>&lt;p&gt;&lt;em&gt;Cet article a été traduit automatiquement. Pour la version originale, &lt;a href="https://thedotnetblog.com/posts/emiliano-montesdeoca/sql-server-2025-agent-ready-security-mcp/"&gt;cliquez ici&lt;/a&gt;.&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;J&amp;rsquo;ai suivi la série Polyglot Tax d&amp;rsquo;Aditya Badramraju avec beaucoup d&amp;rsquo;intérêt. La partie 4 clôt la série avec les parties qui déterminent vraiment si vous feriez confiance à cette architecture en production.&lt;/p&gt;
&lt;h2 id="un-modèle-de-sécurité-pour-tous-les-modèles-de-données"&gt;Un Modèle de Sécurité pour Tous les Modèles de Données&lt;/h2&gt;
&lt;p&gt;Une seule politique Row-Level Security couvre toutes les tables — relationnelles, JSON, graphes, vecteurs. Une politique, une preuve pour l&amp;rsquo;auditeur.&lt;/p&gt;
&lt;h2 id="backup-unifié--récupération-atomique"&gt;Backup Unifié = Récupération Atomique&lt;/h2&gt;
&lt;p&gt;Dans un stack polyglottes, la récupération point-in-time sur cinq bases de données est un cauchemar de cohérence. Avec une seule base de données, c&amp;rsquo;est atomique par définition.&lt;/p&gt;
&lt;h2 id="intégration-mcp--agents-sans-middleware"&gt;Intégration MCP : Agents Sans Middleware&lt;/h2&gt;
&lt;p&gt;SQL Server 2025 supporte directement le SQL MCP Server. Les agents appellent des outils, le moteur impose l&amp;rsquo;isolation tenant et le masquage des colonnes automatiquement.&lt;/p&gt;
&lt;h2 id="conclusion"&gt;Conclusion&lt;/h2&gt;
&lt;p&gt;Pour les développeurs .NET qui construisent des applications agent-first sur Azure SQL, cette architecture mérite une sérieuse considération. Post original d&amp;rsquo;Aditya Badramraju : &lt;a href="https://devblogs.microsoft.com/azure-sql/the-polyglot-tax-part-4/"&gt;The Polyglot Tax – Part 4&lt;/a&gt;.&lt;/p&gt;</content:encoded></item><item><title>68 Minutes par Jour à Ré-Expliquer Son Code ? Il Y a une Solution</title><link>https://thedotnetblog.com/fr/posts/emiliano-montesdeoca/auto-memory-stop-re-explaining-code-to-copilot/</link><pubDate>Thu, 23 Apr 2026 00:00:00 +0000</pubDate><author>Emiliano Montesdeoca</author><guid>https://thedotnetblog.com/fr/posts/emiliano-montesdeoca/auto-memory-stop-re-explaining-code-to-copilot/</guid><description>Le context rot est réel — votre agent IA dérive après 30 tours, et vous payez la taxe de compactage toutes les heures. auto-memory donne à GitHub Copilot CLI un rappel chirurgical sans brûler des milliers de tokens.</description><content:encoded>&lt;p&gt;&lt;em&gt;Cet article a été traduit automatiquement. Pour la version originale, &lt;a href="https://thedotnetblog.com/posts/emiliano-montesdeoca/auto-memory-stop-re-explaining-code-to-copilot/"&gt;cliquez ici&lt;/a&gt;.&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Vous connaissez ce moment où votre session Copilot atteint &lt;code&gt;/compact&lt;/code&gt; et que l&amp;rsquo;agent oublie complètement ce sur quoi vous travailliez ? Vous passez les cinq minutes suivantes à ré-expliquer la structure des fichiers, le test qui échoue, les trois approches déjà essayées. Puis ça recommence.&lt;/p&gt;
&lt;p&gt;Desi Villanueva l&amp;rsquo;a chronométré : &lt;strong&gt;68 minutes par jour&lt;/strong&gt; — juste pour la réorientation. Pas à écrire du code. Pas à revoir des PRs. Juste à remettre l&amp;rsquo;IA au courant de choses qu&amp;rsquo;elle savait déjà.&lt;/p&gt;
&lt;p&gt;Il s&amp;rsquo;avère qu&amp;rsquo;il y a une raison concrète à cela — et une solution concrète.&lt;/p&gt;
&lt;h2 id="le-mensonge-de-la-fenêtre-de-contexte"&gt;Le Mensonge de la Fenêtre de Contexte&lt;/h2&gt;
&lt;p&gt;Votre agent arrive avec un grand nombre sur la boîte. 200K tokens. Ça semble massif. En pratique c&amp;rsquo;est un plafond, pas une garantie.&lt;/p&gt;
&lt;p&gt;Voici le calcul réel :&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;200K contexte total&lt;/li&gt;
&lt;li&gt;Moins ~65K pour les outils MCP chargés au démarrage (~33%)&lt;/li&gt;
&lt;li&gt;Moins ~10K pour les fichiers d&amp;rsquo;instructions comme &lt;code&gt;AGENTS.md&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Cela vous laisse environ &lt;strong&gt;125K avant d&amp;rsquo;avoir tapé un seul mot&lt;/strong&gt;. Et ça empire — les LLMs ne se dégradent pas gracieusement. Ils atteignent un mur vers 60% d&amp;rsquo;utilisation. Le modèle commence à perdre des éléments mentionnés 30 tours plus tôt.&lt;/p&gt;
&lt;p&gt;Limite effective : &lt;strong&gt;45K tokens&lt;/strong&gt; avant que la qualité se dégrade.&lt;/p&gt;
&lt;h2 id="la-taxe-de-compactage"&gt;La Taxe de Compactage&lt;/h2&gt;
&lt;p&gt;Chaque &lt;code&gt;/compact&lt;/code&gt; vous coûte votre état de flow. Vous êtes profondément dans une session de débogage. Contexte partagé construit sur 30 minutes. Puis l&amp;rsquo;avertissement arrive.&lt;/p&gt;
&lt;p&gt;La partie cruelle : &lt;strong&gt;La mémoire existe déjà.&lt;/strong&gt; Copilot CLI écrit chaque session dans une base de données SQLite locale à &lt;code&gt;~/.copilot/session-store.db&lt;/code&gt;. L&amp;rsquo;agent ne peut tout simplement pas la lire.&lt;/p&gt;
&lt;h2 id="auto-memory--une-couche-de-rappel-pas-un-système-de-mémoire"&gt;auto-memory : Une Couche de Rappel, Pas un Système de Mémoire&lt;/h2&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;pip install auto-memory
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;~1 900 lignes de Python. Zéro dépendances. Installé en 30 secondes.&lt;/p&gt;
&lt;p&gt;Au lieu d&amp;rsquo;inonder le contexte avec des résultats grep, vous donnez à l&amp;rsquo;agent un accès chirurgical à ce qui compte vraiment — &lt;strong&gt;50 tokens au lieu de 10 000&lt;/strong&gt;.&lt;/p&gt;
&lt;h2 id="en-conclusion"&gt;En Conclusion&lt;/h2&gt;
&lt;p&gt;Le context rot est une contrainte architecturale réelle. auto-memory le contourne en donnant à votre agent un mécanisme de rappel bon marché et précis.&lt;/p&gt;
&lt;p&gt;Consultez-le : &lt;a href="https://github.com/dezgit2025/auto-memory"&gt;auto-memory sur GitHub&lt;/a&gt;. Post original de Desi Villanueva : &lt;a href="https://devblogs.microsoft.com/all-things-azure/i-wasted-68-minutes-a-day-re-explaining-my-code-then-i-built-auto-memory/"&gt;I Wasted 68 Minutes a Day&lt;/a&gt;.&lt;/p&gt;</content:encoded></item></channel></rss>