Schnelles Internet Schwächen beim neuen Google Algorithmus entdeckt

Ein Google-Entwickler, der in einem internen Papier die Meinung vertrat, Frauen seien biologisch weniger für Erfolg in der Tech-Industrie geeignet, ist von dem Internet-Konzern gefeuert worden.

Eine schnellere Übertragung versprachen die Betreiber von Google mit der Einführung des BBR-Algorithmus im vergangenen Sommer. Forscher des Karlsruher Instituts für Technologie (KIT) haben jetzt festgestellt, dass der Algorithmus zu Überlast und Unfairness führt.

Der neue Algorithmus soll eigentlich Überlastungen des Netzwerks vermeiden und so Staus auf der Datenautobahn verhindern.

Aber das Konstrukt hat Schwächen: Denn während die Daten mancher Nutzer auf der Überholspur beschleunigen, bleiben andere schlimmstenfalls einfach „auf dem Seitenstreifen“ liegen.

„Die herkömmlichen Algorithmen zur Staukontrolle im Internet, die in den 80er Jahren entwickelt wurden, sorgen dafür, dass bei Engpässen alle Nutzer einen ungefähr gleich großen Anteil der zur Verfügung stehenden Bandbreiten erhalten“, sagt Roland Bless vom Institut für Telematik.  Allerdings haben die traditionellen Verfahren an Netzknoten bisweilen zu unnötigen Verzögerungen bei der Weiterleitung der Daten geführt, weil sie dort vorhandene Pufferspeicher immer erst vollständig füllen. Das Ergebnis: „Stau und starke Verzögerungen, die ganz besonders interaktive Anwendungen wie zum Beispiel Telefonie oder Online-Spiele stören“, sagt Bless. BBR (Bottleneck Bandwidth and Round-trip Propagation Time) dagegen, so die Google-Entwickler, werde Stausituationen vermeiden und dadurch niedrigere Verzögerungen erreichen.

Google setzt das Verfahren bereits auf allen Servern und bei Google.com und YouTube ein. „Der Einsatz erfordert nur eine Änderung auf Server-Seite“, erläutert Bless. Doch den Einsatz hält er für verfrüht: „Die möglichen Auswirkungen des BBR-Verfahrens sind noch nicht ausreichend untersucht, insbesondere von unabhängiger Seite“, so der Internet-Experte. Nutzer der Google-Dienste könnten von BBR in manchen Situationen zwar profitieren, unter Umständen benachteiligten sie aber andere Nutzer sehr stark. Denn das Verfahren basiere auf einem bestimmten Modell des Netzes und wende dieses bei jedem Sender an. „Das führt im Fall mehrerer Sender unweigerlich in eine Überlastsituation.“

Diese werde im besten Fall durch eine eingebaute Grenze beschränkt, im schlechtesten Fall könne sie indessen zu massiven Paketverlusten führen. „Denn BBR ignoriert Paketverlust als Stausignal, was bislang die wesentliche Grundlage der existierenden Verfahren war.“ Weiter warnt Bless vor Fairness-Problemen, insbesondere im Zusammenhang mit kleineren Pufferspeichern, wenn mehrere BBR-Datenströme auf herkömmliche (Nicht-BBR-) Datenströme treffen: „Letztere werden massiv unterdrückt. Sie bekommen kaum einen Anteil der verfügbaren Bandbreite, weil BBR so aggressiv agiert.“

Zwar habe Google die genannten Schwächen eingeräumt und arbeite an einer neuen BBR-Version (BBR 2.0), welche die beobachteten Nachteile beheben solle, sagt Bless. Ob dies angesichts der zugrunde liegenden Modellannahmen allerdings überhaupt möglich sei, bleibe abzuwarten. Einen hohen Durchsatz, niedrige Verzögerung und gleichzeitig Fairness über einen bei mehreren Sendern verteilt ablaufenden Staukontroll-Algorithmus zu erreichen, ist keine einfache Aufgabe, an der seit Anbeginn des Internets geforscht wird.

Die KIT-Forscher arbeiten ihrerseits an einem eigenen Staukontrollverfahren. Es unterstützt nicht nur hohe Übertragungsgeschwindigkeiten, sondern begrenzt vor allem die eigens verursachten Verzögerungen und sorgt gleichzeitig für eine faire Aufteilung der verfügbaren Bandbreite. Das Projekt wird vom Land Baden-Württemberg gefördert. Beteiligt sind darüber hinaus die Universitäten Ulm und Tübingen, einschließlich ihrer Rechenzentren und dem Netzbetreiber Belwue.