Ankündigungen und Neuigkeiten

Willkommen zur AI Week
Willkommen zur AI Week 2025

Wir sehen, dass KI grundlegend verändert, wie Menschen in jeder Branche arbeiten. Kundenbetreuer können zehnmal so viele Support-Tickets beantworten. Software-Ingenieure sind Prüfer von KI-generiertem Code, anstatt Stunden damit zu verbringen, Boilerplate-Code zu schreiben. Die Vertriebsmitarbeitenden können sich wieder auf den Aufbau von Beziehungen konzentrieren, während ihre mühsame Nachverfolgung und Verwaltung automatisch erledigt werden. Bei Cloudflare sind wir bestrebt, Unternehmen dabei zu unterstützen, erstklassige KI-gestützte Erlebnisse für ihre Mitarbeitenden und Kunden zu entwickeln.

Blog lesen
Prompt-Erkennung und -Protokollierung in Gateway – Bild
Jenseits des Verbots: Ein besserer Weg, generative KI-Anwendungen zu sichern

Bei generativen KI-Tools muss man einen Kompromiss zwischen Produktivität und Datenrisiko finden. Die neue Cloudflare One-Schutzfunktion für KI-Prompts (AI Prompt Protection) bietet die nötige Transparenz und Kontrolle zur Verwaltung dieser Tools und ermöglicht es Organisationen, KI sicher zu nutzen.

Blog lesen
AI Avenue Youtube-Kanal/-Serienstart – Bild
Cloudflare startet eine KI-Miniserie für Entwickler (und alle anderen, die sie kennen)

AI Avenue begegnet Ängsten, zeigt das Potenzial von KI auf und hebt positive Geschichten menschlicher Augmentation hervor, wobei sogar praktische Interaktionen ermöglicht werden.

Blog lesen
Schatten-KI-Bericht +Erhöhte Abdeckung von KI-Anwendungen in Gateway – Bild
Das Unsichtbare entlarven: Ihr Leitfaden zur Bändigung der Schatten-KI mit Cloudflare One

Lassen Sie nicht zu, dass „Schatten-KI“ Ihre Daten unbemerkt an nicht genehmigte KI weitergibt. Diese neue Bedrohung erfordert eine neue Schutzmaßnahme. Erfahren Sie, wie Sie Sichtbarkeit und Kontrolle erlangen können, ohne die Innovation zu beeinträchtigen.

Blog lesen
Best-Practice-Leitfaden für KI-Sicherheit
Best Practices zur Absicherung generativer KI mit Cloudflare SASE

Dieser Leitfaden bietet Sicherheits- und IT-Verantwortlichen Best Practices, um generative KI mithilfe der SASE-Architektur von Cloudflare als Teil einer Strategie für das AI Security Posture Management (AI-SPM) sicher einzuführen.

Blog lesen
ChatGPT, Claude und Gemini-Sicherheitsscans mit CASB
ChatGPT-, Claude- und Gemini-Sicherheitsprüfung mit Cloudflare CASB

GenAI-Tools bieten Leistung – und Risiko. Cloudflare CASB scannt jetzt ChatGPT, Claude und Gemini auf Fehlkonfigurationen, Offenlegung sensibler Daten und Compliance-Probleme und unterstützt Unternehmen dabei, KI mit Zuversicht einzuführen. Dokumentation lesen

Blog lesen
Zero Trust MCP-Serversteuerung
Die KI-Revolution absichern: Einführung der Cloudflare MCP-Serverportale

Wir freuen uns, bekannt zu geben, dass MCP-Serverportale von Cloudflare jetzt in der offenen Beta-Version verfügbar sind. MCP-Serverportale ist eine neue Funktion, die es Ihnen ermöglicht, jede MCP-Verbindung in Ihrem Unternehmen zu zentralisieren, zu sichern und zu überwachen. Diese Funktion ist Teil von Cloudflare One, unserer Secure Access Service Edge (SASE)-Plattform, die dabei hilft, Ihren Arbeitsplatz zu verbinden und zu schützen. Dokumentation lesen

Blog lesen
Einführung des Cloudflare Confidence Score für KI-Anwendungen
Einführung des Cloudflare Application Confidence Score für KI-Anwendungen

Cloudflare wird Vertrauensbewertungen in unserer Anwendungsbibliothek für Gen AI-Anwendungen bereitstellen, sodass Kunden das Risiko für Mitarbeitende, die Schatten-IT nutzen, einschätzen können.

Blog lesen
Firewall for AI führt Moderation unsicherer Inhalte ein – Abbildung
Blockieren Sie unsichere Prompts, die auf Ihre LLM-Endpunkte abzielen – mit Firewall for AI

Die KI-Sicherheitssuite von Cloudflare umfasst jetzt die Moderation unsicherer Inhalte, die in die Suite für Anwendungssicherheit über die Firewall for AI integriert ist. Mit Llama entwickelt, erkennt und blockiert es schädliche Prompts, bevor sie Ihre KI-Anwendungen erreichen.

Blog lesen
Infire Blog
Wie wir die effizienteste Inferenz-Engine für das Netzwerk von Cloudflare entwickelt haben

Bestehende LLM-bereitstellende Engines sind nicht effizient genug, wenn sie in einem global verteilten Netzwerk eingesetzt werden, daher haben wir unsere eigene in Rust entwickelt. Infire ist eine LLM-Inferenz-Engine, die verschiedene Techniken einsetzt, um die Ressourcennutzung zu maximieren. Dadurch können wir KI-Modelle effizienter und mit besserer Performance für Cloudflare-Workloads bereitstellen.

Blog lesen
AI Gateway-Aktualisierung
AI Gateway bietet Ihnen jetzt Zugriff auf Ihre bevorzugten KI-Modelle, dynamisches Routing und mehr – alles über nur einen Endpunkt.

AI Gateway vereinfacht die Entwicklung von KI-Anwendungen durch einheitliche Abrechnung, sichere Schlüsselspeicherung und dynamisches Routing. Verschaffen Sie sich Transparenz und Kontrolle über Kosten, API-Schlüssel und Datenverkehr, indem Sie sich mit den wichtigsten KI-Anbietern über einen einzigen Endpunkt verbinden.

Blog lesen
Proprietäre Modelle für Workers AI
Hochmoderne Leonardo-Modelle zur Bildgenerierung und Deepgram-Modelle für Text-to-Speech sind jetzt in Workers AI verfügbar

Wir erweitern Workers AI mit neuen Partnermodellen von Leonardo.Ai und Deepgram. Beginnen Sie mit der Nutzung der hochmodernen Bildgenerierungsmodelle von Leonardo (Phoenix, Lucid Origin) und der Echtzeit-TTS- und STT-Modelle von Deepgram (Nova 3, Aura 2). Erstellen Sie Full-Stack-KI-Anwendungen mit niedriger Latenz, die alle im globalen Netzwerk von Cloudflare gehostet werden.

Blog lesen
Wie Cloudflare mehr KI-Modelle mit weniger GPUs ausführt: Ein technischer Deep-Dive
Wie Cloudflare mehr KI-Modelle mit weniger GPUs ausführt: Ein technischer Deep-Dive

Um einen wachsenden KI-Modellkatalog zu unterstützen und gleichzeitig die GPU-Auslastung zu maximieren, hat Cloudflare eine interne Plattform namens Omni entwickelt. Diese Plattform verwendet eine schlanke Isolierung und Speicherüberbelegung, um mehrere KI-Modelle auf einer einzigen GPU auszuführen. Dadurch können wir Inferenzanfragen näher an den Nutzern abwickeln und die Verfügbarkeit in unserem gesamten Netzwerk verbessern.

Blog lesen
KI-Bot-Aktivität nach Typ und branchenspezifische Crawl-/Refer-Einblicke
Ein tieferer Einblick in KI-Crawler: Aufschlüsselung des Traffics nach Zweck und Branche

Wir erweitern die KI-bezogenen Erkenntnisse auf Cloudflare Radar um neue branchenspezifische Daten und eine Aufschlüsselung des Bot-Traffics nach Zweck, wie z. B. Training oder Nutzeraktion. Diese neuen Ansichten helfen Website-Betreibern, die Auswirkungen von KI-Crawlern besser zu verstehen.

Blog lesen
Autorag + NLWeb für Verlage/Content-Ersteller zur AI Week
Machen Sie Ihre Website für Menschen und Agenten konversationsfähig – mit NLWeb und AutoRAG

Integrieren Sie konversationelle Suche in Ihre Webseite, damit Menschen und KI-Agenten Fragen in natürlicher Sprache stellen und direkte Antworten erhalten können. Dank NLWeb, einem offenen Projekt von Microsoft, und Cloudflare AutoRAG lässt sich die Gesprächssuche jetzt mit nur einem Klick auf Ihrer Website einrichten.

Blog lesen
Testen von KI-Modellen zur Hintergrundentfernung
Bewertung von Bildsegmentierungsmodellen zur Hintergrundentfernung für Images

Ein Einblick, wie das Images-Team dichotome Bildsegmentierungsmodelle verglich, um Motive in einem Bild zu identifizieren und vom Hintergrund zu trennen.

Blog lesen
PPC-Rückblick und was als Nächstes kommt
Der nächste Schritt für Kreative bei der Arbeit mit KI-Bots: Einführung von AI Crawl Control

Cloudflare führt AI Crawl Control (vormals AI Audit) ein und stellt leicht anpassbare 402 HTTP-Antworten vor. Anstatt Crawler komplett zu blockieren, können Content Creator jetzt „Zahlung erforderlich“-Antworten mit benutzerdefinierten Nachrichten senden und so direkte Kommunikationskanäle für faire KI-Partnerschaften schaffen.

Blog lesen
Einführung von signierten Agenten
Das Zeitalter der Agenten: Kryptografische Erkennung von agentenbasiertem Traffic

Cloudflare ermöglicht es Website- und Bot-Erstellern jetzt, Web Bot Auth zu verwenden, um Agenten von verifizierten Bots zu segmentieren, was es Kunden erleichtert, die vielen Arten von benutzer- und partnergesteuerten Bots, die durch die explosionsartige Verbreitung von KI-Agenten entstanden sind, zuzulassen oder zu verbieten.

Blog lesen
Von Cloudy-erstellte Zusammenfassungen zur E-Mail-Sicherheit
Cloudy-Zusammenfassungen von E-Mail-Erkennungen: Ankündigung der Beta-Phase

Wir nutzen jetzt unser internes LLM, Cloudy, um automatisierte Zusammenfassungen innerhalb unseres E-Mail-Sicherheitsprodukts zu erstellen, die SOC-Teams helfen, besser zu verstehen, was in den markierten Nachrichten passiert.

Blog lesen
Realtime Overarching blog (working title, to be updated)
Cloudflare ist der beste Ort, um Echtzeit-Sprachagenten zu entwickeln

Wir befinden uns an einem kritischen Wendepunkt, an dem sich die Konversations-KI von experimentellen Demos zu produktionsreifen Systemen entwickelt. Sollten Sie bereits im Bereich der Echtzeit-KI tätig sein, wollen wir Ihnen die optimalen Werkzeuge bereitstellen, um niedrigste Latenzen in globalem Maßstab zu gewährleisten.

Blog lesen
Fehlerbehebung bei Netzwerkverbindungen und -performance mit Cloudflare AI
Fehlerbehebung bei Netzwerkverbindungen und -performance mit Cloudflare AI

Beheben Sie Netzwerkverbindungsprobleme mit Cloudflare AI-Power, um WARP-Client- und Netzwerkprobleme schnell selbst zu diagnostizieren und zu lösen.

Blog lesen
Die Lücke zwischen Crawlen und Klicken: Cloudflare-Daten zu KI-Bots, Training und Verweisen
Die Lücke zwischen Crawlen und Klicken: Cloudflare-Daten zu KI-Bots, Training und Verweisen

Bis Mitte 2025 wird das Training fast 80 % des KI-Crawlings ausmachen, während die Verweise bzw. Weiterleitungen auf Publisher (insbesondere von Google) zurückgehen. GPTBot und ClaudeBot stiegen stark an, während Amazonbot und Bytespider zusammenbrachen. Die Crawl-Verweis-Verhältnis zeigt, dass KI viel mehr verbraucht, als sie zurückgibt.

Blog lesen
Cloudy für Cloudforce One, den KI-gestützten Bedrohungsdaten-Assistenten
Automatisieren Sie mit Cloudy die Analyse von und Reaktion auf Bedrohungen

Cloudy beschleunigt jetzt die analytischen Untersuchungen und die Cloudforce One-Bedrohungsdaten! Erhalten Sie sofortige Einblicke aus Bedrohungsereignissen und APIs zu APTs, DDoS, Cyberkriminalität und mehr. Angetrieben von Workers AI macht Cloudy Bedrohungsuntersuchungen schneller, klarer und umsetzbarer als je zuvor.

Blog lesen
Montagsrückblick
Dienstag im Rückblick – Need title

Auszug erforderlich

Blog lesen