Kapitel 2 : Android (Roboter)
Ein humanoider Roboter ist das, was wir als Androiden bezeichnen.
Laut dem Oxford English Dictionary wurde der Begriff erstmals im Jahr 1728 (unter dem Namen "Androides") in Ephraim Chambers' Cyclopaedia verwendet. In dieser Veröffentlichung wurde auf einen Automaten Bezug genommen, den der heilige Albertus Magnus erfunden haben soll. Das Wort "Android" wurde erstmals in Verbindung mit kleinen humanoiden Spielzeugautomaten in US-Patenten verwendet, die bereits 1863 erteilt wurden. Obwohl ein "kybernetischer Organismus" oder "bionischer Mensch" ein Lebewesen wäre, das eine Mischung aus biologischen und mechanischen Elementen ist, wäre ein "Cyborg" ein gebräuchlicherer Begriff.
Der Begriff "Droide", der von George Lucas im ersten Star Wars-Film populär gemacht wurde und heute im Genre der Science-Fiction ausgiebig verwendet wird, entstand als Abkürzung des Wortes "Android". Lucas und andere haben den Begriff jedoch verwendet, um jeden Roboter zu bezeichnen, einschließlich Maschinen mit eindeutig nicht-menschlicher Form wie R2-D2. In der Episode "What Are Little Girls Made Of?" aus Star Trek: The Original Series wurde der Begriff "Android" verwendet. In dem Buch Do Androids Dream of Electric Sheep?, geschrieben von Philip K. Dick, wurde zum ersten Mal das abschätzige Akronym "Andy" verwendet. Seitdem hat die Abkürzung etwas mehr Verwendung gefunden, etwa in der Fernsehserie Total Recall 2070.
Laut Eric G. Wilson, der einen Androiden als "synthetischen Menschen" bezeichnet, gibt es drei verschiedene Arten von Androiden, die nach den Materialien, aus denen ihre Körper bestehen, kategorisiert werden können:
die Sorte "tote Objekte" oder "steifes, lebloses, natürliches Material", wie Mumien, Puppen, Puppen und Skulpturen; Zu dieser Kategorie gehört auch der "Mumientyp".
die Golem-Art, die aus formbarem und vermutlich lebendem Material gebildet ist und sowohl Homunkuli als auch Golems umfasst
die Art des Automaten, die sowohl aus leblosen als auch aus lebendigen Komponenten besteht und Roboter und Automaten umfassen kann.
Die Faszination für die Entwicklung von Robotern, die die menschliche Morphologie nachahmen können, liegt historisch in der Assimilation von zwei Konzepten: Simulakren (Geräte, die Ähnlichkeit aufweisen) und Automaten. Obwohl die menschliche Morphologie nicht unbedingt die ideale Form für Arbeitsroboter ist, liegt die Faszination bei der Entwicklung von Robotern, die sie nachahmen können, historisch in der Assimilation zweier Konzepte (Geräte, die unabhängig sind).
Mehrere Initiativen wurden gestartet, und weitere sind derzeit im Gange, mit der Absicht, humanoide Roboter zu entwickeln, die menschliche Eigenschaften in Aussehen, Verhalten und Sprache bis zu einem gewissen Grad nachahmen.
Seit den 1970er Jahren stehen japanische Roboter an der Spitze der Branche.
Das Intelligent Robotics Lab an der Universität Osaka, das von Hiroshi Ishiguro geleitet wird, und die Firma Kokoro stellten den Actroid auf der Expo 2005 in der Präfektur Aichi, Japan, aus. Der Telenoid R1 wurde im Jahr 2010 auf den Markt gebracht. Ein neuer DER 2 Android wurde im Jahr 2006 von Kokoro entwickelt. 165 Zentimeter ist die gemessene Höhe der menschlichen Körperkomponente von DER2. Es gibt insgesamt siebenundvierzig bewegliche Punkte. DER2 ist nicht nur in der Lage, seinen Gesichtsausdruck zu verändern, sondern auch seine Hände und Füße zu bewegen und seinen Körper zu drehen. Das "Luftservosystem", das Kokoro zu Beginn entwickelt hat, ist das, was wirklich für den Aktuator verwendet wird. Da die Bewegung so gleichmäßig und geräuscharm ist, ist dies eine direkte Folge davon, dass ein Servosystem den Aktuator genau mit Luftdruck regelt. Durch die Verwendung eines Zylinders mit geringerem Durchmesser konnte der DER2 einen schlankeren Körper als sein Vorgänger erreichen. DER2 scheint von außen ein ästhetisch ansprechenderes Verhältnis zu haben. Im Vergleich zu seinem Vorgänger verfügt der DER2 über schlankere Bügel und eine größere Vielfalt an Gesichtsausdrücken. Nachdem es programmiert wurde, ist es in der Lage, seine Stimme zu nutzen, um sowohl seine Bewegungen als auch seine Gesten zu choreografieren.
Ein Androidenkopf namens Saya wurde vom Intelligent Mechatronics Lab an der Tokyo University of Science entwickelt, das von Hiroshi Kobayashi geleitet wird. Saya wurde während der Robodex 2002 Convention in Yokohama, Japan, gezeigt. Gegenwärtig gibt es auf der ganzen Welt eine Reihe verschiedener Bestrebungen, die sich mit humanoider Forschung und Entwicklung beschäftigen. Es ist zu hoffen, dass diese Initiativen ein breiteres Spektrum an Technologien hervorbringen werden, die in nicht allzu ferner Zukunft erreicht wurden. Zurzeit ist Saya als Guide an der Science University of Tokyo angestellt.
Die Waseda-Universität in Japan hat in Zusammenarbeit mit den Herstellern von NTT Docomo erfolgreich einen formwandelnden Roboter namens WD-2 entwickelt. Es ist in der Lage, das Aussehen seines Gesichts zu verändern. Zu Beginn wählten die Designer die geeigneten Positionen für die Punkte aus, die später verwendet werden sollten, um das Profil einer Person zu vermitteln, einschließlich ihrer Augen, Nase und anderer Gesichtszüge. Sie behaupten, dass der Roboter sein Gesicht ausdrückt, indem er alle Punkte an die Stellen verschiebt, auf die man sich geeinigt hat. Im Jahr 2003 wurde der erste Prototyp des Roboters erstellt und getestet. Danach, rund ein Jahr später, nahmen sie eine Handvoll bedeutender Anpassungen und Verbesserungen am Gesamtlayout vor. Die Maske des Roboters, die aus Gummiband besteht, ist einer Standard-Kopfpuppe nachempfunden. Das Antriebssystem ist mit einer Einheit mit drei Freiheitsgraden ausgestattet. Die Gesichtsmerkmale des WD-2-Roboters können durch selektives Aktivieren von Gesichtspunkten auf einer Maske verändert werden. Jeder Punkt verfügt über drei Freiheitsgrade, so dass der Roboter eine Vielzahl von Ausdrücken annehmen kann. Dank der 17 Gesichtspunkte stehen insgesamt 56 Freiheitsgrade zur Verfügung. Was die Komponenten betrifft, die in die WD-2 eingebaut wurden, so besteht die Gesichtsmaske aus einem hochelastischen Polymer namens Septom, dem auch Stahlwollepartikel beigemischt sind, um die Zugfestigkeit zu erhöhen. Weitere technologische Aspekte legen einen Schaft frei, der hinter der Maske an der gewünschten Gesichtsstelle gefahren wird. Diese Welle wird von einem Gleichstrommotor angetrieben, der aus einer Grundriemenscheibe und einer Gleitschraube besteht. Es scheint, dass die Forscher auch in der Lage sind, die Form der Maske in Übereinstimmung mit echten menschlichen Gesichtern zu verändern. Ein 3D-Scanner ist alles, was erforderlich ist, um ein Gesicht zu "kopieren", da er verwendet wird, um die Positionen jedes der 17 Gesichtspunkte einer Person zu bestimmen. Danach werden sie mit Hilfe eines Laptops und 56 einzelner Motorsteuerungsplatinen an ihren Platz manövriert. Wenn ein Foto des Gesichts einer Person auf eine 3D-Maske gelegt wird, stellen die Forscher fest, dass der formwandelnde Roboter sogar in der Lage ist, die Gesichtsbehaarung und den Hautton der Person anzuzeigen.
Eine Professorin der Nanyang Technological University namens Prof. Nadia Thalmann beaufsichtigte die Arbeit des Institute for Media Innovation und der School of Computer Engineering bei der Entwicklung eines sozialen Roboters namens Nadine. Die Software, die Nadine antreibt, ähnelt sehr der, die Apples Siri und Microsofts Cortana antreibt. In Zukunft wird Nadine vielleicht als persönliche Assistentin am Arbeitsplatz und zu Hause arbeiten, oder sie kann als Begleiterin für Menschen jeden Alters, einschließlich Kinder und ältere Menschen, arbeiten.
Associate Professor Gerald Seet, der sowohl mit der School of Mechanical and Aerospace Engineering als auch mit dem BeingThere Centre verbunden ist, leitete die Forschung und Entwicklung von EDGAR, die sich über einen Zeitraum von drei Jahren erstreckte. EDGAR ist in der Lage, von einem Remote-Benutzer gesteuert zu werden, wobei das Gesicht und die Mimik des Benutzers in Echtzeit auf dem Gesicht des Roboters angezeigt werden. Zusätzlich imitiert der Roboter die Art und Weise, wie sich ihr Oberkörper bewegt.
EveR-1 ist ein Android-Modell für zwischenmenschliche Interaktionen, das von KITECH untersucht und erstellt wurde. Es ist in der Lage, den emotionalen Ausdruck des Menschen durch die "Muskulatur" des Gesichts nachzuahmen und kann mit einem Wortschatz von etwa 400 Wörtern grundlegende Konversationen führen. Sie hat die übliche Größe und das Gewicht einer koreanischen Dame in ihren Zwanzigern, misst 160 Zentimeter beziehungsweise 50 Kilogramm. Der Name EveR-1 leitet sich von der biblischen Figur Eva ab, kombiniert mit dem Buchstaben r, der für Roboter steht. Die leistungsstarke Rechenleistung von EveR-1 ermöglicht die Spracherkennung und Sprachsynthese bei gleichzeitiger Verarbeitung von Lippensynchronisation und visueller Identifizierung mittels 90-Grad-Mikro-CCD-Kameras, die mit Gesichtserkennungstechnologie ausgestattet sind. Ihre Mimik, ihre Körperkoordination und ihr emotionaler Ausdruck werden von einem Mikrochip gesteuert, der unabhängig in ihrem künstlichen Gehirn arbeitet. Sie ist in der Lage, realistische Gesichtsausdrücke zu zeigen, zu singen und gleichzeitig zu tanzen, da ihr ganzer Körper aus extrem ausgeklügeltem synthetischem Gelee-Silikon besteht und sie sechzig künstliche Gelenke im Gesicht, am Hals und am Unterkörper hat. Ihr gesamter Körper besteht ebenfalls aus Gelee-Silizium. Das südkoreanische Ministerium für Information und Kommunikation hat das ehrgeizige Ziel, bis zum Jahr 2020 einen Roboter in jedem Haushalt zu platzieren.
Great Moments with Mr. Lincoln war eine Attraktion, die erstmals 1964...