Immer mehr Anwendungen setzen auf Machine-Learing-Algorithmen. Demnach wächst der Bedarf, diese auch auf mobilen Geräten nutzen zu können.
Google arbeitet deshalb schon länger an der Bibliothek Tensorflow, die genau auf solche Anwendungsszenarien ausgerichtet ist. Nun hat der Suchmaschinenriese eine neue Variante seiner Bibliothek namens
Tensorflow Lite angekündigt, die für Mobil- und Embedded-Geräte optimiert ist.
Die Tensorflow-Lite-Bibliothek ist schlanker als bisher und sowohl für Android als auch für iOS verfügbar, wobei Implementierungen für weitere Betriebssysteme geplant sind. So unterstützt die Bibliothek etwa die
Android Neural Networks API. Ausserdem soll die neue Lite-Variante schneller sein als bisher und die Modelle viel schneller laden können. Darüber hinaus bietet sie Unterstützung für Hardware-Beschleunigung, etwa durch extra dafür in mobilen Geräten eingebaute Chips.
Tensorflow Lite setzt auf bereits trainierte Machine-Learning-Modelle, die in ein neues Format gespeichert und dann von einem Interpreter ausgeführt werden. Der Interpreter von Tensorflow Lite ist dabei samt den geladenen Operatoren gerade einmal 300 KB gross, während der Interpreter von Tensorflow Mobile noch eine Grösse von 1,5 MB hatte. Wann Tensorflow Lite für den Einsatz in produktiven Umgebungen freigegeben wird, bestätigt Google derweil nicht.
(luc)