Biomedizin+elektronik

Algorithmen und Mini-Organe statt Tierversuche

17. August 2018, 11:00 Uhr | Melanie Ehrhardt
Diesen Artikel anhören

Fortsetzung des Artikels von Teil 1

Computerbasierte Voraussagen

Neben dem Ergebnis ist auch die Wiederholbarkeit ein wichtiger Maßstab für die Qualität eines Versuchsmodells. Wissenschaftler an der Johns Hopkins Bloomberg School of Public Health in Baltimore haben nun Tierversuche mit Algorithmen verglichen. Dabei untersuchten sie, welche Methode die toxischen Eigenschaften chemischer Verbindungen vorhersagen kann. Das Ergebnis: Die Algorithmen konnten bei einer Testwiederholung zu 87 Prozent feststellen, ob eine Chemikalie giftig ist oder nicht. Tierversuche schafften das hingegen nur in 81 Prozent der Fälle. Ein knapper, aber klarer Sieg für den Computer.

Für die Forscher um Thomas Hartung sind die Ergebnisse augenöffnend: »Sie legen nahe, dass wir viele Tierversuche mit computerbasierten Voraussagen ersetzen und verlässlichere Resultate bekommen können.« Dabei haben die Algorithmen ihr ganzes Potential noch gar nicht ausgeschöpft. »Aufgrund der Kosten und auch aus ethischen Gründen wurde nur eine kleiner Teil der rund 100.000 Konsumgütern umfassend getestet« so Hartung.

Giftige Nachbarschaft

Tiere wie Mäuse, Kaninchen, Meerschweinchen und Hunde durchlaufen jährlich Millionen von chemischen Toxizitätstests in Labors auf der ganzen Welt. Obwohl diese in der Regel gesetzlich zum Schutz der Verbraucher vorgeschrieben sind, werden sie von weiten Teilen der Öffentlichkeit aus moralischen Gründen abgelehnt und sind auch bei den Produktherstellern wegen der hohen Kosten und Unsicherheiten über die Testergebnisse unbeliebt. »Ein neues Pestizid zum Beispiel kann unter Umständen 30 separate Tierversuche erfordern, die das Unternehmen rund 20 Mio. Dollar kosten«, sagt Hartung.

Die gebräuchlichste Alternative zu Tierversuchen ist ein Prozess namens »Read-Across«, bei dem Forscher die Toxizität einer neuen Verbindung anhand der bekannten Eigenschaften von wenigen Chemikalien mit ähnlicher Struktur vorhersagen. Die Methode ist deutlich  preiswerter als Tierversuche, erfordert aber für jede Verbindung eine Expertenbewertung und eine subjektive Analyse. Als ersten Schritt zur Optimierung und Automatisierung des Prozesses haben Hartung und Kollegen vor zwei Jahren die laut eigener Aussage weltweit größte maschinenlesbare toxikologische Datenbank aufgebaut. Sie enthält Informationen über die Strukturen und Eigenschaften von 10.000 chemischen Verbindungen, die zum Teil auf 800.000 verschiedenen toxikologischen Tests basieren.

Für ihre Studie erweiterte das Team die Datenbank und nutzte maschinelle Lernalgorithmen, um die Daten zu lesen und eine »Karte« der bekannten chemischen Strukturen und der damit verbundenen toxischen Eigenschaften zu erstellen. Sie entwickelten eine entsprechende Software, um genau zu bestimmen, wo eine Verbindung auf der Karte hingehört und welche potentiellen toxischen Auswirkungen wie Hautreizungen oder DNA-Schäden sie aufgrund ihrer »Nachbarschaft« hat. »Unser automatisierter Ansatz hat den Tierversuch deutlich übertroffen, und zwar in einer sehr soliden Bewertung anhand von Daten zu Tausenden von verschiedenen Chemikalien und Tests«, sagt Hartung.   

Mottenlarven statt Mäusen

Und in Baden-Württemberg? Aus fünf Förderanträgen sind dieses Jahr drei Projekte ausgewählt worden. In einem Projekt an der Universitätsklinik Tübingen etwa sollen Mottenlarven Mäuse bei Tierversuchen zur Erforschung von Autoimmunerkrankungen ersetzen. An der Universität Freiburg wird zudem an der tierfreien Herstellung von Antikörpern geforscht.


  1. Algorithmen und Mini-Organe statt Tierversuche
  2. Computerbasierte Voraussagen

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!