2015 hatte Preferred Networks »Chainer« entwickelt, ein Open-Source-Deep-Learning-Software-Framework auf Basis der Programmiersprache Phyton. Im Rahmen von Chainer lassen sich neuronale Netze aufbauen, die sich dynamisch auf Basis ihrer jeweiligen Aufgaben und der einfließenden Daten konfigurieren (define by run). Jeder, der mit Phyton vertraut ist, kann seine eigenen Deep-Learning-Systeme die auf der Hardware von Firmen wie Nvidia, Intel und OpenPower laufen.
Um ihre internen Entwicklungen durchführen zu können, betreibt Preferred Networks den »MN-1«, einen eigenen Super-Computer mit 1064 GPUs von Nvidia (Tesla P100), einem der größten in Japan. Erst kürzlich hatte er 1,39 PetaFLOPS (LINPACK) erreicht und belegt damit unter den weltweit betriebenen Industrie-Supercomputern den 13 Platz.
Erst im November vergangenen Jahres hatte Preferred Networks einen Rekord aufgestellt: Das verteilte Lernpaket »ChainerMN« einen Rekord absolvierte auf dem »MN-1« ein Training in 15 Minuten (Netz: Resnet-50, Bildklasse: ImageNet), sehr viel schneller, als das vergleichbare Systeme geschafft haben. https://www.preferred-networks.jp/docs/imagenet_in_15min.pdf
»Gemeinsam könnten wir die modernsten intelligenten Edge-Systeme der Welt entwickeln, Industrie 4.0 in die Fertigung bringen und schlussendlich das Leben der Konsumenten sicherer und komfortabler machen«, sagt Toshiaki Higashihara, President und CEO von Hitachi.