Sturzfluten gehören zu den unberechenbarsten und tödlichsten Wetterphänomenen auf dem Planeten. Jedes Jahr fordern diese plötzlichen Wassermassen mehr als 5.000 Todesopfer und schlagen oft mit wenig bis gar keiner Vorwarnung zu. Während Meteorologen bemerkenswert gut darin geworden sind, großräumige Ereignisse wie Hurrikane oder saisonale Flussüberschwemmungen vorherzusagen, bleiben Sturzfluten ein hartnäckiger „blinder Fleck“ in der globalen Wettervorhersage.
Der Grund hierfür ist nicht ein Mangel an Rechenleistung, sondern ein Mangel an Daten. Um die Deep-Learning-Modelle zu trainieren, die moderne Wetter-Apps antreiben, benötigen Wissenschaftler historische Aufzeichnungen. Sturzfluten sind jedoch oft zu lokal begrenzt und kurzlebig, um von traditionellen Sensoren wie Pegelmessern erfasst zu werden. Um diese Lücke zu schließen, hat sich Google Research einer unkonventionellen Informationsquelle zugewandt: den Archiven lokaler Nachrichten.
In der Welt der Wettervorhersage sind Daten das Lebenselixier der Genauigkeit. Für große Flüsse verfügen wir über jahrzehntelange Durchflussdaten, die von physischen Sensoren aufgezeichnet wurden. Doch Sturzfluten ereignen sich oft in kleinen Bächen, Stadtstraßen oder abgelegenen Schluchten, in denen keine Sensoren existieren. Ohne Aufzeichnungen darüber, wo und wann diese Überschwemmungen in der Vergangenheit aufgetreten sind, können KI-Modelle nicht die Muster lernen, die für ihre Vorhersage in der Zukunft notwendig sind.
Dies bezeichnen Forscher als das „Ground Truth“-Problem (Bodenwahrheit). Wenn ein Baum im Wald umfällt und kein Sensor die Erschütterung aufzeichnet, ist es dann passiert? In hydrologischen Begriffen ausgedrückt: Wenn eine Sturzflut eine Brücke in einem ländlichen Dorf zerstört, aber kein Pegelmesser in der Nähe ist, hat dieses Ereignis für ein Computermodell praktisch nie stattgefunden. Diese fehlenden Informationen machen es fast unmöglich, globale KI-Modelle darauf zu trainieren, die Vorboten einer Sturzflut zu erkennen.
Um dies zu lösen, nutzten Google-Forscher Gemini – das fortschrittlichste Large Language Model des Unternehmens –, um eine massive digitale archäologische Ausgrabung durchzuführen. Das Team beauftragte die KI damit, 5 Millionen Nachrichtenartikel aus mehreren Jahrzehnten und in Dutzenden von Sprachen zu lesen.
Das Ziel war es, „unstrukturierte“ Berichte über Überschwemmungen zu finden – lokale Nachrichtenschnipsel, Notfalldepeschen und Gemeindearchive – und diese in „strukturierte“ Daten umzuwandeln. Gemini suchte nicht nur nach dem Wort „Überschwemmung“; es analysierte den Kontext, um den genauen Ort, den Zeitpunkt und die Schwere des Ereignisses zu bestimmen.
Das Ergebnis ist ein Datensatz namens „Groundsource“. Er enthält 2,6 Millionen einzelne Hochwasserereignisse, die jeweils mit Geotags und Zeitstempeln versehen sind. Dies stellt einen gewaltigen Sprung in unseren historischen Aufzeichnungen dar und bietet eine hochauflösende Karte davon, wo Wasser in der Vergangenheit zugeschlagen hat, selbst in Gebieten, in denen keine physische Infrastruktur vorhanden ist.
Die Nutzung eines Sprachmodells für die hydrologische Forschung ist ein neuartiger Ansatz. Gila Loike, Produktmanagerin bei Google Research, merkte an, dass dies das erste Mal ist, dass das Unternehmen LLMs einsetzt, um diese spezifische Art von Umwelt-Zeitreihendaten zu erstellen.
Man kann es sich wie eine Übersetzungsebene vorstellen. In einem Nachrichtenbericht könnte stehen: „Starke Regenfälle führten dazu, dass die Kreuzung an der 5. Ecke Main Street am vergangenen Dienstag unter einem Meter Wasser stand.“ Gemini übersetzt diesen Satz in einen Satz Koordinaten, ein Datum und eine Größenordnung. Wenn man dies mit Millionen von Artikeln multipliziert, erhält man plötzlich ein dichtes Netz von Datenpunkten, die mit historischen Satellitenbildern und Niederschlagsaufzeichnungen überlagert werden können.
Durch den Vergleich dieser aus Nachrichten gewonnenen Berichte mit atmosphärischen Daten können die Deep-Learning-Modelle von Google endlich das „Warum“ hinter dem „Wo“ erkennen. Sie können identifizieren, dass eine bestimmte Niederschlagsmenge in einer bestimmten Topographie zu einer Überschwemmung führt, selbst wenn sich in der Nähe kein einziger physischer Sensor befindet.
Einer der bedeutendsten Aspekte des Groundsource-Projekts ist sein Potenzial, dem Globalen Süden zu helfen. Entwicklungsländern fehlt oft das Budget, um teure Pegelstationen zu installieren und zu warten. Infolgedessen sind diese Regionen oft am anfälligsten für klimabedingte Katastrophen und am schlechtesten mit Frühwarnsystemen ausgestattet.
Da Groundsource auf Nachrichtenberichten und digitalen Archiven statt auf physischer Hardware basiert, kann es einen historischen Kontext für Regionen liefern, die zuvor „Datenwüsten“ waren. Durch die Veröffentlichung dieses Datensatzes bietet Google lokalen Regierungen und NGOs eine Grundlage, um ihre eigenen lokalisierten Frühwarnsysteme aufzubauen.
Obwohl der Groundsource-Datensatz in erster Linie ein Werkzeug für Forscher und Meteorologen ist, werden seine Auswirkungen letztendlich den durchschnittlichen Smartphone-Nutzer erreichen. Das bedeutet dieser Wandel in der Vorhersage für die nahe Zukunft:
Die Entscheidung von Google, die Groundsource-Forschung und den Datensatz öffentlich zugänglich zu machen, markiert einen Wandel hin zu einer kollaborativen Klima-KI. Indem sie die „Bodenwahrheit“ liefern, die zuvor fehlte, laden sie die globale wissenschaftliche Gemeinschaft ein, diese Modelle zu verfeinern.
Da der Klimawandel die Häufigkeit und Intensität extreemster Wetterereignisse erhöht, wird die Fähigkeit, das Unvorhersehbare vorherzusagen, zu einer Frage des Überlebens. Indem wir der KI beibringen, Nachrichten zu lesen, geben wir ihr endlich den Kontext, den sie braucht, um die Fluten kommen zu sehen, bevor das Wasser zu steigen beginnt.



Unsere Ende-zu-Ende-verschlüsselte E-Mail- und Cloud-Speicherlösung bietet die leistungsfähigsten Mittel für den sicheren Datenaustausch und gewährleistet die Sicherheit und den Schutz Ihrer Daten.
/ Kostenloses Konto erstellen