Das maschinelle Lernen findet seine Wurzeln in den 1950er Jahren. Erst in den letzten Jahren wurden große Durchbrüche erzielt, und das Feld in den Mainstream verlagert. Die wichtigsten Entwicklungen dazu waren der massive Anstieg der Computerleistung und der Datenspeicherung.
Heutzutage hat fast jedes Startup Zugang zu unbegrenzter Rechenleistung und KI-Infrastrukturen. Die Anwendung auf den Verifikationsbereich erweist sich aber als schwierig aufgrund von Sicherheitsstandards und einer relativ langsamen Einführung neuer Technologien.
Um einen echten Sprung in der Branche zu erleben, müssen riesige Datensätze aufgebaut werden, vorzugsweise auch durch mehrstufige Partnerschaften zwischen Verifikationsingenieuren, Unternehmens- und Projektleitern. Dies kann sowohl eine technische als auch eine rechtliche Herausforderung stellen. Im Ergebnis könnten so aber mächtige Werkzeuge erschaffen werden, denkbar wäre eine Fehlererkennung mit der selben Erfolgsrate wie gängige Spamfilter in der Cloud.
Cogita konzentriert sich derzeit auf den Prozess des Debuggens bei der Chip-Verifikation, aber seine Anwender beginnen es für andere vielfältige Aufgaben einzusetzen, einschließlich Netzwerk-Performance-Analyse und Frachtmanagement. Wir experimentieren derzeit mit der Anwendung in weiteren Bereichen, einschließlich Finanz- oder Medizintechnik.
Unser Ziel ist es, Cogita als perfektes Werkzeug für das Screening zu belegen, und Mapping, Sortierung oder Visualisierung von Daten auf eine Weise bereitzustellen, die jeder sofort erfassen kann. (ct)
[1] Anna M. Ravitzki, “Between the Dialog and the Algorithm or Innovative Technological Narratives Leveraging the Idea of Authenticity in a Human Being“, DVCon Europe, Munich, 2017.
[2] Charles E. Leiserson, Introduction to Algorithms, 3rd Edition, The MIT Press, 2009
[3] Steven S Skiena, The Algorithm Design Manual, 2nd Edition, Springer-Verlag, London, 2008