Eine KI von Meta kann Bilder lesen: Wie funktioniert das?
Das AI-Team von Meta stellt eine neue KI vor. Sie soll Objekte in Bildern erkennen – auch solche, die sie im Training noch nicht gesehen hat.
Das Wichtigste in Kürze
- Meta lanciert eine neue KI, die Objekte in Bildern auseinanderhalten kann.
- Gemäss Meta kann die KI auch angewendet werden, wenn sie vorher nicht trainiert wurde.
- Nau.ch hat kurz mit der KI herumexperimentiert. Sie funktioniert überraschend gut.
Das KI-Team des Meta-Konzerns hat am Mittwoch sein «Segment Anything Model» (SAM) vorgestellt. Die KI soll einzelne Objekte in Bildern voneinander trennen können, sie segmentieren. Nau.ch hat die Demo kurzerhand in einer Büroumgebung ausprobiert. Hier unsere ersten Ergebnisse:
Unser Fazit: Das ganze funktioniert erstaunlich gut – auch wenn es hier sich natürlich nicht um einen richtigen Test handelt. Doch was macht die KI da eigentlich im Hintergrund?
Das steckt hinter der künstlichen Intelligenz
Meta versteht unter der Segmentierung «das Identifizieren von Bildpixeln, die zu einem Objekt gehören». An der Basis von SAM steht ein riesiger Datensatz, mit dem die künstliche Intelligenz trainiert wurde. Durch ihn habe SAM «eine allgemeine Vorstellung davon erlernt, was Objekte sind».
Für diese erkannten Objekte zeichnet SAM dann einzelne Masken. Diese Masken können mit einem Klick einzeln oder gleich in Gruppen ausgewählt werden. Alternativ kann SAM auch gleich alle Objekte automatisch maskieren.
Das Programm soll laut Facebook sogar Objekte und Bildtypen erkennen, die es noch nicht durch das Training kennt. So könne es eine breite Palette an Anwendungsfällen abdecken, von der Unterwasserfotografie bis zur Zellmikroskopie. Meta sieht auch Möglichkeiten zur Anwendung in AR- oder VR-Umgebungen.
Meta stellt die Demo von SAM auf einer eigenen Website der Öffentlichkeit zur Verfügung. Wer will, findet das Projekt auch auf GitHub. Auch die Nutzung der Trainingsdatenbank steht allen offen.