Ab dem 27. Mai 2025 beginnt Meta, der Mutterkonzern von Facebook, Instagram und WhatsApp, mit dem Training seiner Künstlichen Intelligenz Meta AI auf Basis öffentlicher Nutzerdaten aus Europa.
Wer nicht möchte, dass eigene Beiträge, Fotos und Kommentare für die KI-Modelle verwendet werden, muss jetzt handeln: Ein Widerspruch ist nur noch bis zum 26. Mai 2025 möglich.
Welche Daten werden verwendet?
Meta nutzt ausschließlich öffentliche Inhalte von volljährigen Nutzern auf Facebook und Instagram für das KI-Training. Dazu zählen:
Öffentliche Beiträge, Fotos, Bildunterschriften und Kommentare
Interaktionen mit öffentlichen Inhalten und Gruppen
Nachrichten an Meta AI (z.B. im Chatbot)
Private Nachrichten (z.B. bei WhatsApp) und Inhalte von Minderjährigen sind laut Meta ausgenommen.
Warum ist ein schneller Widerspruch wichtig?
Nach dem 27. Mai 2025 können bereits verwendete Daten nicht mehr aus den KI-Modellen entfernt werden. Ein späterer Widerspruch gilt nur noch für Inhalte, die ab dem Zeitpunkt des Widerspruchs veröffentlicht werden. Die Trainingsdaten fließen unwiderruflich in die KI ein und lassen sich technisch nicht mehr löschen.
Schritt-für-Schritt: So widersprechen Sie bei Facebook und Instagram
Facebook:
Im eigenen Profil auf „Einstellungen und Privatsphäre“ > „Einstellungen“ gehen
„Datenschutzrichtlinie“ öffnen
Im Suchfeld „Widerspruchsrecht“ eingeben und auswählen
Auf den Link zum Widerspruch klicken
Die Frage „Bezieht sich deine Anfrage auf KI bei Meta?“ mit „ja“ beantworten
E-Mail-Adresse angeben und absenden
Instagram:
Profilseite öffnen und Einstellungen aufrufen
Im Bereich „Info“ die „Datenschutzrichtlinie“ auswählen
Über das Suchfeld „Widerspruchsrecht“ finden und anklicken
Link zum Widerspruch auswählen
Die Frage zur KI mit „ja“ beantworten
E-Mail-Adresse angeben und absenden
Alternativ kann man die offiziellen Formulare direkt im eingeloggten Zustand nutzen:
Eine Begründung ist nicht erforderlich – die Angabe der E-Mail-Adresse genügt.
Was gilt für WhatsApp?
Bei WhatsApp werden weiterhin keine privaten Nachrichten für das KI-Training genutzt. Hier reicht es aus, Meta AI (erkennbar am blau-lilafarbenen Ring) zu ignorieren.
Fazit und Empfehlung
Wer verhindern möchte, dass persönliche, aber öffentlich sichtbare Inhalte für das KI-Training von Meta AI genutzt werden, sollte jetzt aktiv werden und bis spätestens 26. Mai 2025 widersprechen.
Danach sind die eigenen Daten Teil der KI und können nicht mehr entfernt werden.
Tipp: Diesen Hinweis mit Freunden und Familie teilen – die Zeit zum Widerspruch ist knapp!
Alphabet beeindruckt mit starken Q1-Zahlen – Analysten richten Blick auf KI-Strategie und steigende Kosten
Alphabet Inc. hat im ersten Quartal 2025 starke Zahlen präsentiert. Umsatz, Gewinn und operative Marge legten deutlich zu und unterstreichen die robuste Geschäftsentwicklung.
Dennoch werfen Analysten einen kritischen Blick auf zentrale Zukunftsfragen: Wie entwickelt sich die KI-Strategie? Und gelingt es Alphabet, die explodierenden Infrastrukturkosten effizient zu managen?
Geschäftszahlen Q1 2025 im Überblick:
Umsatz: 90,2 Milliarden US-Dollar (+12 % im Vergleich zum Vorjahr)
Besonders hervorzuheben ist das Wachstum von Google Cloud, deren Umsatz um 28 % auf 12,3 Milliarden US-Dollar anstieg. Auch das Kerngeschäft Werbung – getragen von Google Search und YouTube – blieb robust und widerstand erfolgreich makroökonomischen Unsicherheiten.
Ein Blick auf die Cloud-Sparte zeigt: Zwar trägt sie mit etwa 14 % einen immer noch moderaten Teil zum Gesamtumsatz bei, doch angesichts der hohen Wachstumsraten wird sie zunehmend zu einem strategischen Eckpfeiler im Wettbewerb gegen Amazon und Microsoft.
KI als Wachstumstreiber – aber auch als offene Baustelle
Alphabet treibt die Integration von Künstlicher Intelligenz (KI) über alle Geschäftsbereiche hinweg energisch voran:
Über 1,5 Milliarden monatliche Nutzer verwenden inzwischen AI Overviews in der Google-Suche.
Das neue Gemini 2.5 Pro-Modell erzielte Bestnoten und beschleunigte die Nutzung der Gemini-Apps und APIs.
Die Open-Source-Modelle der Gemma-Serie wurden mehr als 140 Millionen Mal heruntergeladen.
KI-Funktionen wurden umfassend in Produkte wie Android, Pixel, Google Workspace und die Cloud-Plattform integriert.
Trotz dieser Fortschritte bleiben Analysten skeptisch. Besonders drei Themen dominieren die Diskussion:
Nutzung von Gemini im Wettbewerbsvergleich: Gemini verzeichnet aktuell 35 Millionen tägliche aktive Nutzer (DAUs) – ein respektabler Wert, der jedoch hinter den Zahlen von OpenAI zurückbleibt. CEO Sundar Pichai verwies auf eine „positive Dynamik“ und hob hervor, dass AI Overviews inzwischen ein wichtiger Bestandteil der Google-Suche seien. Dennoch bleibt offen, wie schnell Gemini weiter skalieren kann.
Kostenmanagement bei steigenden Infrastrukturinvestitionen: CFO Anat Ashkenazi bestätigte, dass die Abschreibungen auf neue Server und Rechenzentren in den kommenden Quartalen weiter steigen werden. Alphabet plant, diese Kosten durch KI-basierte Effizienzgewinne und teamübergreifende Konsolidierungen abzufedern. Ob diese Strategie schnell genug Wirkung zeigt, bleibt abzuwarten.
Zukunft der KI-Suche: Auf Nachfrage erklärte Sundar Pichai, dass Alphabet verschiedene KI-Suchformate – etwa AI Overviews, AI Mode und Gemini – parallel betreiben wolle, um unterschiedliche Nutzerbedürfnisse optimal zu bedienen. Entscheidend bleibe jedoch eine konsistente und intuitive Nutzererfahrung.
Fazit: Alphabet hat mit seinen Q1-Zahlen klar überzeugt und die eigene Innovationskraft im Bereich KI eindrucksvoll unter Beweis gestellt. Dennoch bleibt der Konzern unter Beobachtung: Investoren achten besonders auf die Frage, ob Alphabet seine massiven Infrastrukturinvestitionen effizient steuern kann – und ob die KI-Initiativen mittelfristig in echte Wettbewerbsvorteile übersetzt werden können.
Ausblick: Die kommenden Quartale dürften zeigen, wie tragfähig die neue KI-Strategie wirklich ist – und ob Alphabet im zunehmend intensiven KI-Wettlauf die Nase vorn behält.
Zwei aktuelle Studien zeigen massive Trafficverluste durch Googles neue KI-Antwortboxen – vor allem bei nicht-markenbezogenen Keywords.
Googles AI Overviews, KI-generierte Antwortboxen direkt über den klassischen Suchergebnissen, verändern das Suchverhalten dramatisch.
Zwei aktuelle Studien – von Ahrefs und Amsive – belegen, wie stark die organische Klickrate (CTR) unter dieser Veränderung leidet.
Besonders betroffen sind informationsgetriebene Anfragen und Inhalte ohne Markenbezug.
Was sind Google AI Overviews?
Seit ihrem Rollout in den USA im März 2025 erscheinen bei vielen Suchanfragen in der Google Suche sogenannte AI Overviews.
Dabei handelt es sich um automatisch generierte Textzusammenfassungen, die Google auf Basis zahlreicher Quellen erstellt – ähnlich wie ein Mini-Artikel direkt in den Suchergebnissen.
Ziel: Nutzende sollen schnell eine Antwort erhalten, ohne externe Seiten aufrufen zu müssen.
Google betont, dass AI Overviews zu „qualitativ hochwertigeren Klicks“ führen. Die neue Datenlage widerspricht jedoch dieser Darstellung.
Studie 1: Ahrefs – Dramatischer Rückgang bei Top-Rankings
Die SEO-Plattform Ahrefs analysierte 300.000 Keywords vor und nach der Einführung der AI Overviews. Die Ergebnisse sind deutlich:
📉 CTR-Verlust auf Position 1: –34,5 % 📉 Position 2: –31,6 % 📉 Position 3: –31,7 % 🔍 99,2 % der betroffenen Keywords hatten „informational intent“
Die größte Überraschung: Selbst Seiten, die zu den Top-Ergebnissen gehörten, wurden häufig nicht in den AI Overviews zitiert – obwohl sie thematisch passen.
Das bedeutet: Sichtbarkeit in der klassischen Suche garantiert keine Präsenz in der KI-Antwort.
Studie 2: Amsive – Deutlicher Verlust bei Non-Branded Queries
Die Digitalagentur Amsive untersuchte 700.000 Keywords aus fünf Branchen. Ihr Fokus lag auf der Interaktion von AI Overviews mit verschiedenen SERP-Features und Keyword-Typen.
Zentrale Erkenntnisse:
📉 CTR-Verlust gesamt: –15,49 % 📉 Non-Branded Keywords: –19,98 % 📉 Kombination AI Overview + Snippet: –37,04 % 📉 Ranking außerhalb Top 3: –27,04 % 📈 Branded Keywords mit AI Overview: +18,68 % 🧭 Anteil AI Overviews bei Branded Queries: nur 4,79 %
Die Daten zeigen klar: Besonders stark betroffen sind generische, informationsorientierte Suchanfragen. Markenbegriffe hingegen profitieren in seltenen Fällen sogar.
Warum das für SEO-Agenturen und Unternehmen wichtig ist
Beide Studien stellen klar: Klassisches SEO – verstanden als „auf Platz 1 kommen“ – reicht nicht mehr aus.
Selbst Top-Platzierungen liefern deutlich weniger Klicks, wenn AI Overviews eingeblendet werden. Wer nicht im Overview erscheint, verliert Sichtbarkeit.
Für Unternehmen und Online-Marketing-Agenturen wie Dodler Consulting bedeutet das:
SERP-Strategien müssen neu gedacht werden.
Content allein reicht nicht – Markenstärke und Nutzerbindung gewinnen an Gewicht.
Zukünftige SEO-Planung muss AI-Features aktiv mitdenken.
Fazit
Google hat mit AI Overviews das Nutzerverhalten in der Suche verändert – und die Spielregeln für organische Sichtbarkeit gleich mit.
Wer auch künftig Reichweite generieren will, muss die eigene Content- und SEO-Strategie anpassen: weg vom reinen Ranking, hin zu smarter Sichtbarkeit.
Wie spricht man mit einer Maschine, die scheinbar alles weiß, aber nichts versteht?
Diese Frage ist längst keine philosophische Spielerei mehr. Sie gehört zunehmend zum Arbeitsalltag – in Unternehmen, in der Softwareentwicklung, im Journalismus oder schlicht bei der Internetrecherche.
Prompt Engineering, also die Kunst, künstliche Intelligenz mithilfe gezielter Texteingaben zu steuern, wird damit zur Schlüsselkompetenz der Gegenwart.
Nun hat Google ein umfassendes Whitepaper vorgelegt, das diese Praxis auf eine neue methodische Ebene hebt.
Der 68-seitige Leitfaden erklärt nicht nur Grundlagen, sondern auch fortgeschrittene Strategien, Konfigurationsoptionen und Best Practices.
Er richtet sich an Entwickler:innen, Datenanalyst:innen – und an alle, die mit Systemen wie Gemini, GPT oder Claude mehr erreichen wollen als bloß spontane Antworten.
Large Language Models (LLMs) wie GPT, Claude oder Gemini verändern nicht nur, wie Maschinen Sprache verstehen. Sie verändern auch, wie Menschen mit Maschinen sprechen.
Was lange nach Magie klang – „Stell eine Frage, und die Maschine antwortet“ – ist in Wahrheit ein fein austariertes Wechselspiel aus Wahrscheinlichkeiten, Konfigurationen und semantischer Präzision.
Prompt Engineering versucht, dieses Wechselspiel bewusst zu gestalten. Statt bloß eine Frage zu stellen, formulieren Nutzer:innen gezielte Eingabetexte (Prompts), die Struktur, Kontext, Ziel und sogar den Ton der gewünschten Antwort festlegen.
Ob ein Prompt Beispiele enthält, Rollen definiert oder bestimmte Temperatureinstellungen nutzt – all das beeinflusst maßgeblich die Qualität der Antwort.
„Prompt engineering is the process of designing high-quality prompts that guide LLMs to produce accurate outputs“, heißt es im Whitepaper.
Ein Satz, der den Wandel verdeutlicht: Prompting ist kein Zufallsakt, sondern ein iterativer Prozess. Und dieser wird zunehmend systematisiert.
Vier Techniken, die zeigen, wie KI „denkt“
Wer das Whitepaper liest, bekommt mehr als eine Handreichung. Es ist eine Landkarte der Methoden – mit klarem Anspruch auf Struktur. Vier exemplarische Konzepte zeigen, wie Prompt Engineering heute funktioniert:
1. Zero-shot und Few-shot Prompting
Bei Zero-shot-Prompts reicht eine klare Anweisung – etwa: „Schreibe ein Gedicht über Katzen“. Das Modell erhält keine Beispiele. Doch komplexere Aufgaben erfordern oft ein oder mehrere Beispiele (One-/Few-shot), die dem Modell ein Muster vorgeben.
Google zeigt dies anhand einer Pizza-Bestellung: Aus einem einfachen Beispiel lernt das Modell, Freitext in eine saubere JSON-Struktur zu überführen. Der Trade-off: Je mehr Beispiele, desto robuster – aber auch länger – der Prompt.
2. Chain of Thought (CoT): Denken in Schritten
Modelle sind schlecht in Mathematik – es sei denn, man lässt sie in Zwischenschritten denken. CoT-Prompting fordert genau das.
Beispiel: „Ich war drei Jahre alt, mein Partner dreimal so alt. Jetzt bin ich 20. Wie alt ist mein Partner?“ → Ohne CoT: Falsche Antwort (63). → Mit CoT: Richtige Antwort (26), inklusive Erklärung.
Durch diese Technik werden Denkpfade sichtbar – und die Genauigkeit bei logischen Aufgaben steigt deutlich.
3. System- und Rollenprompting
LLMs lassen sich nicht nur inhaltlich, sondern auch stilistisch steuern. System Prompts definieren das Ziel (z. B. „antworte im JSON-Format“), während Rollenprompts der KI eine Identität zuweisen – vom Reiseleiter bis zum Code-Reviewer.
Prompt-Beispiel: „Ich bin in Manhattan. Schlag mir drei Museen vor – im Ton eines humorvollen Reiseleiters.“ Antwort: „Bereit für einen Kulturschock? Dann ab ins MoMA – wo selbst deine Kritzeleien wie Kunst aussehen!“
4. ReAct: Reason & Act
ReAct kombiniert logisches Denken mit Handlungen. Das Modell darf Websuche oder externe Tools nutzen.
Im Whitepaper demonstriert Google, wie ein ReAct-Agent herausfindet, wie viele Kinder die Mitglieder der Band Metallica haben – durch gezielte Suchaktionen, Zwischenschritte und Synthese. Die Antwort: zehn.
Diese Technik ist die Grundlage für sogenannte „Agentensysteme“ – also autonome KI-Einheiten, die recherchieren, analysieren und interagieren können.
Googles Strategie: Standardisierung durch Offenheit
Das Whitepaper erscheint zu einem strategisch gewählten Zeitpunkt. Große KI-Modelle sind aus dem Labor in den Alltag gewandert. Prompting ist keine Nische mehr, sondern produktive Notwendigkeit.
Google positioniert sich damit nicht nur als Anbieter eigener Modelle (Gemini, Vertex AI), sondern auch als pädagogischer Standardgeber.
Wer das Dokument liest, erkennt: Hier geht es nicht um Marketing, sondern um Methodik. Und um Deutungshoheit.
Das Papier ist eingebettet in eine größere Bewegung: Die chaotische Phase des „Promptens aus dem Bauch heraus“ weicht einer Zeit der Muster, Begriffe und Werkzeuge.
Prompt Engineering wird zur Lehrdisziplin – mit Folgen:
Für Entwickler:innen: messbare Qualität durch wiederholbare Templates.
Für Unternehmen: neue Rollenprofile und Kompetenzanforderungen.
Für Bildungseinrichtungen: Unterrichtsmaterial für den KI-Einsatz.
Für Mitbewerber wie OpenAI oder Anthropic: ein Maßstab, der auf breiter Anschlussfähigkeit zielt.
Dabei bleibt das Dokument überraschend offen: Die Prinzipien lassen sich modellunabhängig nutzen – egal ob GPT, Claude oder open-source. Google verkauft keine Vision, sondern eine Praxis.
Fazit: Ein Handwerk im Wandel
Googles Whitepaper ist mehr als ein Leitfaden. Es ist das Dokument einer Übergangszeit – entstanden in einem Moment, in dem KI zwar allgegenwärtig ist, aber noch nicht selbstverständlich.
Es zeigt: Gute Ergebnisse sind kein Zufall. Sie sind das Resultat gezielter Gestaltung.
Prompt Engineering wird damit zum neuen Handwerk des Digitalen. Doch schon steht die nächste Welle bevor: Automatic Prompt Engineering – also die Automatisierung des Promptens selbst.
Bleibt also die Frage: Wenn Maschinen bald wissen, wie man sie ansprechen muss – was bleibt dann vom menschlichen Einfluss?
Vielleicht ist genau das die Herausforderung der kommenden Jahre: Prompt Engineering nicht aufzugeben, sondern weiterzudenken – von der Texteingabe zur Systemstrategie.
Wer Maschinen nicht nur versteht, sondern ihnen auch den Takt vorgibt, wird ihren Wandel nicht nur begleiten, sondern gestalten.