Wenn das Internet Menschen vernetzt hat, dann wird die nächste Generation des Netzes Maschinen vernetzen. Künstliche Intelligenzen benötigen gemeinsame Sprachen, um Daten auszutauschen und kollaborativ zu handeln. Genau hier entstehen derzeit die Standards, die das Fundament des sogenannten „Agentic Web“ bilden – einer webbasierten Infrastruktur, in der KI‑Agenten Aufgaben selbstständig ausführen können. Vier Protokolle stehen dabei im Mittelpunkt: MCP, A2A, NLWeb und AGENTS.md.
Warum offene Standards das neue Rückgrat des Webs sind
Ohne gemeinsame technische Regeln wäre das Internet nie zu einem globalen Netzwerk geworden. Ähnlich wie HTTP und HTML einst Informationen strukturierten, definieren neue KI‑Standards die Kommunikationswege zwischen intelligenten Systemen. Unternehmen wie OpenAI, Google, Microsoft oder Anthropic haben erkannt, dass sie nur durch Kooperation ein funktionierendes Ökosystem aufbauen können. Deshalb entstand unter dem Dach der Linux Foundation der Agentic AI Foundation – ein Konsortium, das Richtlinien für interoperable KI‑Agenten entwickelt.
MCP – das „USB‑C“ für künstliche Intelligenz
Model Context Protocol (MCP) ermöglicht es, Datenquellen, APIs oder interne Tools über eine einheitliche Schnittstelle an KI‑Modelle anzubinden. Statt separate Integrationen für jede Plattform zu programmieren, bindet man seine Systeme einmal an und jedes MCP‑fähige Modell kann darauf zugreifen. Wer also sein CRM oder Lagerverwaltungssystem so verfügbar macht, öffnet diese Informationen gleichzeitig für Chatbots, Copilots und automatisierte Workflows.
Business‑Relevanz
Für Unternehmen bedeutet das weniger Entwicklungsaufwand und mehr Kontrolle. Ein einziger MCP‑Server ersetzt Dutzende proprietäre Schnittstellen – ähnlich wie ein universeller Anschluss alle Geräte verbindet.
A2A – wenn KI‑Agenten miteinander sprechen
Das Agent‑to‑Agent‑Protokoll (A2A) definiert, wie verschiedene Agenten Aufgaben koordinieren. Jede Einheit erhält eine digitale „Visitenkarte“ im JSON‑Format, die Fähigkeiten und Berechtigungen beschreibt. Muss ein Kundendienst‑Bot eine Rückerstattung veranlassen, findet er über A2A automatisch den zuständigen Zahlungsagenten, übermittelt die relevanten Daten und startet den Prozess – unabhängig davon, von welchem Anbieter jeder Agent stammt.
Vorteil für Unternehmen
Wer mehrere Systeme im Einsatz hat – zum Beispiel Vertriebs‑, Support‑ und Buchhaltungs‑Agenten – kann dank A2A echte Prozessketten schaffen, ohne auf einen Anbieter beschränkt zu sein.
NLWeb – Websites werden dialogfähig
Microsofts Projekt Natural Language Web (NLWeb) überträgt die Prinzipien der Sprachinteraktion direkt ins Internet. Es nutzt vorhandene strukturierte Daten wie Schema.org‑Markup oder Produktfeeds, um Webseiten für natürliche Suchanfragen oder KI‑Abfragen nutzbar zu machen. Eine Seite mit NLWeb‑Endpunkt kann auf Fragen wie „Zeig mir Ferienwohnungen mit Pool in Kroatien“ direkt maschinenlesbare Ergebnisse liefern, statt Clicks durch Filtermenüs zu verlangen.
SEO‑Auswirkung
Für Websitebetreiber ist das ein entscheidender Schritt zum Conversational Web: Inhalte, die bisher über SERPs gefunden wurden, stehen künftig direkt den Agenten zur Verfügung. Wer seine Daten strukturiert pflegt, ist damit automatisch bereit für NLWeb.
AGENTS.md – Handbuch für KI‑Entwickler
AGENTS.md fungiert als maschinenlesbare Dokumentation innerhalb von Softwareprojekten. Darin stehen Build‑Prozesse, Architekturentscheidungen oder Coding‑Konventionen, die KI‑gestützte Entwicklungswerkzeuge befolgen sollen. So kann ein Code‑Assistent wie Copilot oder Gemini den existierenden Stil verstehen und kohärente Änderungen vornehmen. Für Teams, die viel mit generiertem Code arbeiten, ist das ein Werkzeug zur Qualitätssicherung.
Das Zusammenspiel der Protokolle
Jedes Element erfüllt eine eigene Funktion:
- MCP verbindet Agenten mit Tools und Datenquellen.
- A2A regelt die Kommunikation zwischen Agenten.
- NLWeb macht Webinhalte ansprechbar für Mensch und Maschine.
- AGENTS.md sorgt für sauberen, konsistenten Code.
Koordiniert werden sie durch die Agentic AI Foundation, die wie ein W3C für die KI‑Welt agiert.
Warum das alles so schnell geht
Die Akzeptanz wächst rasant: MCP und A2A wurden binnen eines Jahres von praktisch allen großen Cloud‑Anbietern übernommen. Während HTTP oder HTML Jahre brauchten, um sich durchzusetzen, treiben heute interoperable APIs und Open‑Source‑Communities die Entwicklung in Monaten voran. Der Beweggrund ist klar: Agenten funktionieren nur in einem gemeinsamen Ökosystem.
Was Unternehmen jetzt tun können
- Strukturierte Daten optimieren: Wer bereits Schema.org nutzt, schafft die Basis für NLWeb‑Anbindung.
- APIs auf MCP‑Kompatibilität prüfen: So werden interne Systeme direkt KI‑fähig.
- Agenten‑Kooperation testen: Für Organisationen mit mehreren KI‑Anbietern ist A2A das Bindeglied.
- AGENTS.md einführen: Ein einfacher Markdown‑Leitfaden standardisiert die Arbeit von Code‑Assistenten und reduziert Fehler.
Fazit
Das Agentic Web entsteht aus denselben Prinzipien, die auch das klassische Internet aufgebaut haben: Offenheit, Interoperabilität und gemeinsame Protokolle. Wer diese Entwicklung begreift und die Grundlagen früh implementiert, positioniert sein Unternehmen optimal für eine Zukunft, in der nicht mehr nur Menschen, sondern auch KI‑Agenten das Web nutzen.