<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>AI Apps | The .NET Blog</title><link>https://thedotnetblog.com/de/tags/ai-apps/</link><description>Articles, tutorials and insights from the .NET community.</description><generator>Hugo</generator><language>de</language><managingEditor>@thedotnetblog (The .NET Blog)</managingEditor><webMaster>@thedotnetblog</webMaster><lastBuildDate>Sun, 26 Apr 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://thedotnetblog.com/de/tags/ai-apps/index.xml" rel="self" type="application/rss+xml"/><item><title>SQL Server 2025 als Agent-Ready Datenbank: Sicherheit, Backup und MCP in einer Engine</title><link>https://thedotnetblog.com/de/posts/emiliano-montesdeoca/sql-server-2025-agent-ready-security-mcp/</link><pubDate>Sun, 26 Apr 2026 00:00:00 +0000</pubDate><author>Emiliano Montesdeoca</author><guid>https://thedotnetblog.com/de/posts/emiliano-montesdeoca/sql-server-2025-agent-ready-security-mcp/</guid><description>Der letzte Teil der Polyglot Tax Serie tackles die harten Produktionsprobleme: vereinheitlichte Row-Level Security über relationale, JSON-, Graph- und Vektordaten, plus MCP-Integration.</description><content:encoded>&lt;p&gt;&lt;em&gt;Dieser Beitrag wurde automatisch übersetzt. Zur Originalversion &lt;a href="https://thedotnetblog.com/posts/emiliano-montesdeoca/sql-server-2025-agent-ready-security-mcp/"&gt;hier klicken&lt;/a&gt;.&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Ich habe die Polyglot Tax Serie von Aditya Badramraju mit großem Interesse verfolgt. Teile 1-3 lieferten den Beweis für SQL Server 2025 als echte Multi-Modell-Datenbank. Teil 4 schließt die Serie mit den Teilen, die wirklich bestimmen, ob du dieser Architektur in Produktion vertrauen würdest.&lt;/p&gt;
&lt;h2 id="ein-sicherheitsmodell-für-alle-datenmodelle"&gt;Ein Sicherheitsmodell für alle Datenmodelle&lt;/h2&gt;
&lt;p&gt;Eine Row-Level Security Policy, die alle Datenmodelle abdeckt — relationale Tabellen, JSON-Events, Graph-Edges, Vektoren. Eine Policy, ein Audit, ein Nachweis.&lt;/p&gt;
&lt;h2 id="einheitliches-backup--atomare-wiederherstellung"&gt;Einheitliches Backup = Atomare Wiederherstellung&lt;/h2&gt;
&lt;p&gt;In einem polyglottes Stack bedeutet Point-in-Time Recovery fünf koordinierte Restore-Operationen und die Hoffnung, dass die Timestamps übereinstimmen. Mit einer Datenbank ist die Wiederherstellung per Definition atomar.&lt;/p&gt;
&lt;h2 id="mcp-integration-agenten-ohne-hand-codierten-middleware"&gt;MCP-Integration: Agenten Ohne Hand-codierten Middleware&lt;/h2&gt;
&lt;p&gt;SQL Server 2025 unterstützt den SQL MCP Server direkt. Agenten rufen Tools auf, die Engine erzwingt Tenant-Isolierung und Column-Masking automatisch.&lt;/p&gt;
&lt;h2 id="fazit"&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Für .NET-Entwickler, die agenten-first Anwendungen auf Azure SQL bauen, verdient diese Architektur ernsthafte Überlegung. Originalpost von Aditya Badramraju: &lt;a href="https://devblogs.microsoft.com/azure-sql/the-polyglot-tax-part-4/"&gt;The Polyglot Tax – Part 4&lt;/a&gt;.&lt;/p&gt;</content:encoded></item><item><title>68 Minuten täglich damit verbracht, Code neu zu erklären? Es gibt eine Lösung</title><link>https://thedotnetblog.com/de/posts/emiliano-montesdeoca/auto-memory-stop-re-explaining-code-to-copilot/</link><pubDate>Thu, 23 Apr 2026 00:00:00 +0000</pubDate><author>Emiliano Montesdeoca</author><guid>https://thedotnetblog.com/de/posts/emiliano-montesdeoca/auto-memory-stop-re-explaining-code-to-copilot/</guid><description>Context Rot ist real — dein KI-Agent verliert nach 30 Runden den Faden, und du zahlst stündlich die Kompaktierungssteuer. auto-memory gibt GitHub Copilot CLI chirurgische Erinnerungsfähigkeit ohne tausende Tokens zu verbrennen.</description><content:encoded>&lt;p&gt;&lt;em&gt;Dieser Beitrag wurde automatisch übersetzt. Zur Originalversion &lt;a href="https://thedotnetblog.com/posts/emiliano-montesdeoca/auto-memory-stop-re-explaining-code-to-copilot/"&gt;hier klicken&lt;/a&gt;.&lt;/em&gt;&lt;/p&gt;
&lt;p&gt;Kennst du den Moment, wenn deine Copilot-Sitzung &lt;code&gt;/compact&lt;/code&gt; trifft und der Agent komplett vergisst, woran du gearbeitet hast? Die nächsten fünf Minuten verbringst du damit, die Dateistruktur, den fehlschlagenden Test und die drei Ansätze, die du bereits versucht hast, neu zu erklären. Dann passiert es wieder. Und wieder.&lt;/p&gt;
&lt;p&gt;Desi Villanueva hat es gemessen: &lt;strong&gt;68 Minuten pro Tag&lt;/strong&gt; — nur für Neuorientierung. Kein Code schreiben. Keine PRs reviewen. Nur die KI über Dinge auf den neuesten Stand bringen, die sie bereits wusste.&lt;/p&gt;
&lt;p&gt;Es stellt sich heraus, dass es dafür einen konkreten Grund gibt — und eine konkrete Lösung.&lt;/p&gt;
&lt;h2 id="die-kontextfenster-lüge"&gt;Die Kontextfenster-Lüge&lt;/h2&gt;
&lt;p&gt;Dein Agent kommt mit einer großen Zahl auf der Verpackung. 200K Tokens. Klingt riesig. In der Praxis ist es eine Obergrenze, keine Garantie.&lt;/p&gt;
&lt;p&gt;Hier ist die tatsächliche Rechnung:&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;200K Gesamtkontext&lt;/li&gt;
&lt;li&gt;Minus ~65K für MCP-Tools beim Start (~33%)&lt;/li&gt;
&lt;li&gt;Minus ~10K für Instruktionsdateien wie &lt;code&gt;AGENTS.md&lt;/code&gt; oder &lt;code&gt;copilot-instructions.md&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;Das hinterlässt dir etwa &lt;strong&gt;125K bevor du ein einziges Wort schreibst&lt;/strong&gt;. Und es wird schlimmer — LLMs degradieren nicht graceful wenn der Kontext voll wird. Sie stoßen an eine Wand bei etwa 60% Auslastung. Das Modell verliert Dinge, die vor 30 Runden erwähnt wurden, widerspricht früheren Antworten und halluziniert Dateinamen, die es vor 10 Minuten noch selbstsicher angegeben hatte.&lt;/p&gt;
&lt;p&gt;Effektives Limit: &lt;strong&gt;45K Tokens&lt;/strong&gt; bevor die Qualität degradiert. Das sind vielleicht 20-30 Runden aktiver Konversation bevor der Agent anfängt abzudriften.&lt;/p&gt;
&lt;h2 id="die-kompaktierungssteuer"&gt;Die Kompaktierungssteuer&lt;/h2&gt;
&lt;p&gt;Jedes &lt;code&gt;/compact&lt;/code&gt; kostet dich deinen Flow-Zustand. Du bist tief in einer Debugging-Sitzung. Gemeinsamer Kontext über 30 Minuten aufgebaut. Der Agent kennt die Dateistruktur, den fehlschlagenden Test, die Hypothese. Dann kommt die Warnung.&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Ignorieren → Agent wird progressiv dümmer&lt;/li&gt;
&lt;li&gt;&lt;code&gt;/compact&lt;/code&gt; ausführen → Agent hat eine 2-Absatz-Zusammenfassung einer 30-minütigen Untersuchung&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;So oder so verlierst du. So oder so erzählst du dein eigenes Projekt einem neuen Mitarbeiter am ersten Tag nach.&lt;/p&gt;
&lt;p&gt;Das Grausame: &lt;strong&gt;Die Erinnerung existiert bereits.&lt;/strong&gt; Copilot CLI schreibt jede Sitzung in eine lokale SQLite-Datenbank bei &lt;code&gt;~/.copilot/session-store.db&lt;/code&gt;. Der Agent kann sie nur nicht lesen.&lt;/p&gt;
&lt;h2 id="auto-memory-eine-recall-schicht-kein-gedächtnissystem"&gt;auto-memory: Eine Recall-Schicht, Kein Gedächtnissystem&lt;/h2&gt;
&lt;div class="highlight"&gt;&lt;pre tabindex="0" class="chroma"&gt;&lt;code class="language-bash" data-lang="bash"&gt;&lt;span class="line"&gt;&lt;span class="cl"&gt;pip install auto-memory
&lt;/span&gt;&lt;/span&gt;&lt;/code&gt;&lt;/pre&gt;&lt;/div&gt;&lt;p&gt;~1.900 Zeilen Python. Null Abhängigkeiten. In 30 Sekunden installiert.&lt;/p&gt;
&lt;p&gt;Anstatt den Kontext mit Grep-Ergebnissen zu fluten, gibst du dem Agenten chirurgischen Zugriff auf das, was wirklich wichtig ist — &lt;strong&gt;50 Tokens statt 10.000&lt;/strong&gt;.&lt;/p&gt;
&lt;h2 id="fazit"&gt;Fazit&lt;/h2&gt;
&lt;p&gt;Context Rot ist eine reale architektonische Einschränkung. auto-memory umgeht sie, indem es deinem Agenten einen günstigen, präzisen Recall-Mechanismus gibt. Wenn du ernsthaftes KI-unterstütztes Entwickeln mit GitHub Copilot CLI machst, ist die 30-Sekunden-Installation es wert.&lt;/p&gt;
&lt;p&gt;Schau es dir an: &lt;a href="https://github.com/dezgit2025/auto-memory"&gt;auto-memory auf GitHub&lt;/a&gt;. Original-Post von Desi Villanueva: &lt;a href="https://devblogs.microsoft.com/all-things-azure/i-wasted-68-minutes-a-day-re-explaining-my-code-then-i-built-auto-memory/"&gt;I Wasted 68 Minutes a Day&lt;/a&gt;.&lt;/p&gt;</content:encoded></item></channel></rss>