Nvidia hat auf der Internationalen Konferenz für Robotik und Automatisierung (ICRA) in Brisbane, Australien, eine neue Forschungsarbeit vorgestellt, in der Roboter gelehrt werden, um von den Aufgaben des Menschen zu lernen.
Bislang wurden Roboter darin trainiert, eine Reihe von Anweisungen in einer Umgebung auszuführen, die von den Menschen, die sie programmierten, isoliert war. In der Demonstration verwendete Nvidia einige feste Blöcke unterschiedlicher Farben und stapelte sie nach einem festgelegten Muster, um dem Roboter beizubringen, die Aufgabe zu replizieren.
Die in der Demonstration trainierte Abfolge von neuronalen Netzwerken konnte erfolgreich auf die Beziehung zwischen Blöcken schließen und entwickelte ein autonomes Programm, um die durchgeführte Aufgabe nachzuahmen.
Das von Nvidia veröffentlichte Video zeigt das System, das mit der Nvidia Titan X GPU trainiert wurde, die aus der einzelnen Demonstration eines Menschen gelernt wurde. Da sich das Programm auf den aktuellen Status der Ereignisse bezieht, wurden die Fehler korrigiert, die während der Ausführung der Aufgaben in Echtzeit begangen wurden.
„Eine Kamera erfasst einen Live-Videofeed einer Szene, und die Positionen und Beziehungen von Objekten in der Szene werden in Echtzeit von einem Paar neuronaler Netzwerke abgeleitet. Die daraus resultierenden Wahrnehmungen fließen in ein anderes Netzwerk ein, das einen Plan erstellt, um zu erklären, wie diese Wahrnehmungen wiederhergestellt werden können “, lesen Sie in Nvidias Blog.

Mit dieser Forschung hat sich Nvidia der Liga von Unternehmen wie Google und SRI angeschlossen, die Fortschritte auf dem Gebiet der KI machen, um auf AI basierende Systeme zu entwickeln, die intelligent sind und "gesunden Menschenverstand" besitzen.