Google stoppt KI-Gesundheitsfeature nach Kritik
27.03.2026 - 06:39:40 | boerse-global.deGoogle zieht die ReiĂleine bei einem KI-Tool, das GesundheitsratschlĂ€ge aus Foren zusammenfasste. Der Schritt unterstreicht die wachsende Skepsis gegenĂŒber KI-generierten medizinischen Informationen und markiert einen strategischen RĂŒckzug in einem sensiblen Bereich.
WĂ€hrend KI-Zusammenfassungen oft den entscheidenden Kontext vermissen lassen, bietet dieser von Experten geprĂŒfte Ratgeber verlĂ€ssliche Orientierung bei der Deutung Ihrer Vitalwerte. Blutwerte endlich richtig verstehen â zum kostenlosen PDF-Report
Vom Launch zum Aus: Das Ende der âCrowdâ-Ratschlags-KI
Im MĂ€rz 2025 fĂŒhrte Google das Feature âWhat People Suggestâ ein. Es sollte Nutzern in den USA ĂŒber eine KI Zusammenfassungen von Diskussionen aus Plattformen wie Reddit oder X (frĂŒher Twitter) zu Gesundheitsthemen liefern. Die Idee: Erfahrungswissen von Leidensgenossen zugĂ€nglich machen. Doch die Grenze zwischen persönlicher Erfahrung und ungeprĂŒftem medizinischem Rat verschwamm schnell. Google, das das Tool einst als Chance zur Transformation von Gesundheitsergebnissen weltweit pries, hat es still und leise zwischen Ende 2025 und Anfang 2026 eingestellt. Offiziell spricht das Unternehmen von einer âbreiteren Vereinfachungâ der Suchseite. Branchenbeobachter sehen darin jedoch eine Reaktion auf anhaltende Bedenken.
Anhaltende Probleme mit KI-Ăbersichten
Die Abschaltung fĂ€llt in eine Phase intensiver PrĂŒfung der generellen KI-Ăbersichten (AI Overviews) von Google bei Gesundheitsthemen. Eine Untersuchung des âGuardianâ im Januar 2026 deckte FĂ€lle von âfalschen und irrefĂŒhrenden Gesundheitsinformationenâ auf. So lieferten die Ăbersichten zu Leberbluttests vereinfachte ErklĂ€rungen ohne entscheidenden Kontext wie Alter oder Geschlecht. In einem besonders gravierenden Fall riet die KI fĂ€lschlicherweise Menschen mit BauchspeicheldrĂŒsenkrebs von fettreicher Nahrung ab â eine von Experten als âvöllig falsch und potenziell gefĂ€hrlichâ eingestufte Empfehlung.
Google reagierte darauf und entfernte KI-Ăbersichten fĂŒr bestimmte sensible Anfragen. Ein Sprecher betonte, man verfeinere die Systeme kontinuierlich und nehme Ăbersichten heraus, wenn die Modelle die QualitĂ€tsstandards noch nicht erfĂŒllten. Die Episode zeigt die immense Herausforderung, KI in kritischen DomĂ€nen wie der Gesundheitsversorgung zuverlĂ€ssig einzusetzen.
Verlassen Sie sich bei Ihrer Gesundheit nicht auf ungeprĂŒfte Algorithmen â erfahren Sie stattdessen direkt von Experten, welche Laborwerte bei TSH, Cholesterin & Co. wirklich zĂ€hlen. Gratis-Report: Laborwerte-Selbstcheck jetzt kostenlos herunterladen
Branchenweites Umdenken und vorsichtige Zukunft
Die jĂŒngsten Schritte sind Teil eines branchenweiten RĂŒckzugs von KI in hochsensiblen Bereichen wie Gesundheit, Recht und Finanzen. Der Spielraum fĂŒr Fehler ist hier minimal. WĂ€hrend die Entfernung problematischer Features ein erster, wichtiger Schritt ist, reicht das allein nicht aus. Selbst ohne direkte Fehler können KI-Zusammenfassungen irrefĂŒhrend sein, wenn den Modellen das tiefe medizinische VerstĂ€ndnis fehlt. Patientenorganisationen begrĂŒĂen die Korrekturen, fordern aber weitere Verbesserungen.
Wie geht es weiter? Google will weiter in KI fĂŒr Gesundheit investieren, nun aber vorsichtiger. JĂŒngste AnkĂŒndigungen, wie eine Investition von 10 Millionen Euro in die Aus- und Weiterbildung von Klinikpersonal im KI-Zeitalter oder verbesserte Fitbit-Features, zeigen den Kurs: KI soll etablierte Plattformen stĂ€rken und Fachleute unterstĂŒtzen â nicht ungeprĂŒftes Crowd-Wissen ersetzen. Die Lektion aus den gescheiterten Features ist klar: Bei Gesundheitsinformationen sind menschliche Aufsicht, ExpertenprĂŒfung und rigorose Tests unverzichtbar. Der Weg der Tech-Konzerne in diesem Spannungsfeld wird aufmerksam verfolgt werden.
So schÀtzen die Börsenprofis Aktien ein!
FĂŒr. Immer. Kostenlos.

