“social robotics” und mensch-maschine-interaktion
Post on 16-May-2023
0 Views
Preview:
TRANSCRIPT
Social Robotics
1
Lauftitel: SOCIAL ROBOTICS
„Social Robotics“ und Mensch-Maschine-Interaktion:
Aktuelle Forschung und Relevanz für die Sozialpsychologie
Gerald Echterhoff, Gerd Bohner & Frank Siebler
Universität Bielefeld
Wir danken Nicole Krämer für Kommentare und kritische Hinweise zu einer früheren Fassung
dieses Beitrags.
Pre-print final manuscript version of Echterhoff, G., Bohner, G., & Siebler, F. (2006). "Social Robotics" und Mensch-Maschine-Interaktion:
Aktuelle Forschung und Relevanz für die Sozialpsychologie [Social robotics and human-machine interaction: Current research and its relevance for social psychology]. Zeitschrift für Sozialpsychologie, 37, 219-231. doi: 10.1024/0044-3514.37.4.219
This article does not exactly replicate the final version published in the journal. It is not a copy of the original published article and is not suitable for citation.
Social Robotics
2
Zusammenfassung
Aus aktuellen Entwicklungen zur Mensch-Maschine-Interaktion (MMI), insbesondere auf dem
wachsenden Feld der Social Robotics, entstehen neuartige Perspektiven für die
sozialpsychologische Forschung. Da Computer und Roboter sich in besonderem Maße als
Objekte einer Anthropomorphisierung eignen, sollten psychologische Zugänge auch in diesem
Forschungsfeld hilfreich sein. Ausgehend von Unterscheidungen zwischen verschiedenen
Typen dieser Maschinen sowie zwischen biologisch und funktional orientierten Designzielen
werden mögliche Beiträge der Sozialpsychologie zur interdisziplinären Forschung und
Entwicklung skizziert. Befunde zur sozialen Dimension der MMI werden vorgestellt und
diskutiert: das Forschungsprogramm „Computer als soziale Akteure“ sowie Ansätze zur
Menschenähnlichkeit der Maschine als unabhängiger und abhängiger Variablen. Abschließend
schlagen wir spezifische Themen für die zukünftige sozialpsychologische Forschung in drei
klassischen Bereichen vor (Urteilsprozesse im Kontext der MMI, „interpersonelle“ Prozesse
und Intergruppenbeziehungen).
Schlüsselwörter: Mensch-Computer-Interaktion, Mensch-Maschine-Interaktion, Roboter,
Social Robotics, soziale Kognition
Social Robotics
3
English Abstract
Social Robotics and Human-Machine Interaction:
Current Research and Relevance for Social Psychology
Recent developments in human-machine interaction (HMI), especially in the growing field of
social robotics, suggest new perspectives for social-psychological research. Because computers
and robots represent objects particularly amenable to anthropomorphization, psychological
approaches can be fruitfully applied in this field. Based on a distinction between types of
machines and biologically versus functionally oriented design, we outline potential
contributions of social psychology to interdisciplinary research and development. We review
and discuss research bearing on the social dimension of HMI: the “computers as social actors”
research program, and approaches using the human-likeness of machines as independent or
dependent variable. We conclude by proposing specific topics for future research in three
classic areas (judgment processes in the context of HMI, “interpersonal” processes, and
intergroup relations.)
Keywords: human-computer interaction, human-machine interaction, robot, social robotics
Social Robotics
4
“Don’t anthropomorphize your computers; they really hate that!”
– Appell im World Wide Web
Roboter und andere „intelligente Maschinen“ sind uns aus Medien und Literatur, vor
allem der Science Fiction, wohlbekannt. In Krieg der Sterne spielen der niedliche R2D2 und
der ängstliche C3PO beständige Begleiter der Helden, in Per Anhalter durch die Galaxis folgt
der depressive Marvin unwillig den Protagonisten bei ihren kosmischen Abenteuerreisen. Seit
Beginn des modernen technischen Fortschritts gehört das Bild vom Roboter als Partner oder
Gegner des Menschen zum Inventar utopischer Fantasien. Heute ist der Kontakt mit solchen
künstlichen Agenten keine bloße Zukunftsvision mehr. Computerbasierte künstliche Agenten
haben ihren festen Platz in industrieller Produktion, Arbeitswelt und Unterhaltung
eingenommen. Den NutzerInnen handelsüblicher Massen-Software sind Figuren wie Clippy,
die Textverarbeitungsassistentin in Gestalt einer Büroklammer, bestens vertraut;
nichtmenschliche, zumeist anonyme Dialogpartner erteilen Auskünfte am Telefon; und
TeilnehmerInnen an psychologischen Untersuchungen kommunizieren immer weniger mit
VersuchsleiterInnen aus Fleisch und Blut als mit computerbasierten Interfaces. Bereits die
Alltagserfahrung zeigt, dass Menschen solche künstlichen Agenten nicht nur als technische
Werkzeuge zur effizienteren Zielerreichung, also nicht nur aus der zweckrationalen Perspektive
des Users betrachten. Vielmehr müssen wir bisweilen erstaunt feststellen, dass der Umgang mit
solchen künstlichen Agenten auch eineWirkung auf unsere Emotionen oder sozialen
Kognitionen ausübt. Beispielsweise berichtete uns eine erfahrene Computernutzerin, dass sie
beim ungefragten Erscheinen des Hunds Rocky, des Suchassistenten eines weit verbreiteten
Betriebssystems, häufig eine eigentlich unnötige Frage eintippt – um das virtuelle Hündchen,
das schon erwartungsfroh mit dem Schwanz wedelt, nicht zu enttäuschen.
Glaubt man aktuellen Prognosen und Meinungen von ExpertInnen, so werden schon in
naher Zukunft auch Roboter, also physisch autonome Agenten, verstärkt in Alltag und Haushalt
Einzug halten. So hilft der Care-O-Bot des Fraunhofer-Instituts für Produktionstechnik und
Automatisierung bei der Bewältigung von Alltagsaufgaben wie etwa beim Öffnen von Türen
und Schränken (Graf, Hans & Schraft, 2004). Der japanische Premierminister Koizumi bringt
zu offiziellen Empfängen bisweilen den Honda-Roboter Asimo mit, der Staatsgästen die Hand
schüttelt. Während solche Entwicklungen nur langsam ins öffentliche Bewusstsein dringen,
sind die Prognosen für die weitere Entwicklung eindeutig: Der UN-Bericht „World Robotics
2004“ (UNECE, 2004) sagt eine Vervierfachung der Roboterpopulation bis 2007 voraus.
Langfristig werden dem Bericht zufolge Roboter nicht nur Rasen mähen und Häuser bewachen,
Social Robotics
5
sondern auch pflegebedürftigen Menschen beistehen (z.B. Pineau, Montemerlo, Pollack, Roy &
Thrun, 2003), SchülerInnen und Studierenden beim Wissenserwerb helfen (z.B. Kanda, Hirano,
Eaton & Ishiguro, 2004) und viele andere Aufgaben im privaten Raum übernehmen. Das
Trendbarometer im Wirtschaftsteil der Süddeutschen Zeitung bescheinigte im April 2004 der
Robotertechnologie für den Alltag höchste „Bedeutung“ und maximalen „Innovationsgrad“.
Aus Sicht der Psychologie sind diese Entwicklungen aus mindestens zwei Gründen
hochinteressant. Erstens erfordert die technologische Realisierung sozial interagierender
Maschinen Expertise und Erkenntnisse, die zentrale Fragen der psychologischen Forschung
berühren, darunter v.a. der Sozial- und Kommunikationspsychologie, aber auch der
Wahrnehmungs- und Sprachpsychologie. Beispielsweise sollten sozial intelligente Roboter
wissen, welche Merkmale einer Person bestimmte innere Zustände (Stimmung, Befinden,
Intentionen) anzeigen oder auf welche Ursachen oder Bedingungen wahrnehmbare soziale
Reize (verbale Äußerungen oder Mimik, Bewegung, Gestik) schließen lassen. Das Design von
künstlichen Agenten, die auf ihre menschlichen InteraktionspartnerInnen adäquat reagieren, ist
also auf Forschungsbefunde und Konzepte aus der Psychologie, vor allem Grundlagenwissen
aus der Sozialpsychologie, angewiesen (vgl. auch Fong, Nourbakhsh & Dautenhahn, 2003;
Scassellati, 2002). In der Tat bedienen sich beispielsweise die
KommunikationswissenschaftlerInnen um Clifford Nass schon seit geraumer Zeit in Studien zu
ihrem „Computers as Social Actors“-Programm (z.B. Nass & Moon, 2000; Reeves & Nass,
1996) sozialpsychologischen Lehrbuchwissens, um Reaktionen menschlicher User auf
Computer und künstliche Agenten zu untersuchen. Aus den dynamischen Innovationen im
Bereich der Robotik und angewandten Informatik ergibt sich für das Feld der MMI ein
beständiger Forschungsbedarf, dem wohl nur durch interdisziplinären Projekte, gerade mit
Beteiligung der Sozialpsychologie, begegnet werden kann.
Zweitens eröffnet die Erforschung sozialer Prozesse in der MMI neuartige Zugänge zur
Untersuchung sozialer Kognition, sozialer Interaktion und der dabei auftretenden emotionalen
Prozesse bei Menschen. Exemplarisch sei hier die Analyse von „unangemessenen“
Verhaltensweisen gegenüber künstlich-technischen Interaktionspartnern genannt. Studien zur
MMI in experimentellen Spielsituationen etwa können erhellen, welchen Einfluss technisch-
ästhetische Gestaltungsmerkmale (z.B. das Interface-Design) auf die Kooperationsbereitschaft
von Menschen gegenüber künstlichen Agenten haben. Der Nutzen der Berücksichtigung von
Mensch-Maschine-Studien für die Sozialpsychologie besteht darin, dass
Untersuchungsergebnisse Rückschlüsse auf die Mechanismen kooperativen Verhaltens in der
Mensch-Mensch-Interaktion zulassen. Die Attribution menschenähnlicher Eigenschaften auf
Social Robotics
6
einen künstlichen Agenten kann etwa Hinweise auf die Prinzipien liefern, die interpersoneller
Wahrnehmung und Eindrucksbildung überhaupt zugrunde liegen. Analog zum Nutzen der
Erforschung von Wahrnehmungstäuschungen (vgl. Gregory, 1973), können Divergenzen
zwischen subjektiven Eigenschaftsattributionen und „objektiven“, d.h. technisch
implementierten Eigenschaften von Robotern neue Erkenntnisse zu den Mechanismen sozialer
Kognition und Interaktion im menschlichen Beziehungsgeschehen erbringen (vgl. Caporael,
1986: „The question of what makes people think machines can think is a question about what
makes us think other people can think“, S. 232). Da die Merkmale eines computergestützten
Agenten oder eines Roboters (z.B. physisches Erscheinungsbild, Mimik, Gestik) im Vergleich
zu denen eines menschlichen Interaktionspartners leichter manipulierbar sind, bietet der Einsatz
von Robotern (versus menschlichen KonfidentInnen) ein erweitertes Potential zur Erforschung
von Kooperations- und Kommunikationsparametern (z.B. Breazeal, 2002).
MENSCHEN UND INFORMATIONSVERARBEITENDE MASCHINEN
Im Unterschied zu älteren Maschinen wie z.B. Motoren funktionieren Computer und
Roboter auf der Grundlage von Informationsverarbeitungstechnologie. Die Möglichkeit der
Verarbeitung abstrakter Größen und Symbole hatte zunächst die Hoffnung geweckt,
computerbasierte Maschinen könnten Fähigkeiten des menschlichen Geistes bzw. des Gehirns
nachbilden und sogar übertreffen. So wurden die ersten Computer auch als „Elektronengehirne“
tituliert; und intensive Debatten über künstliche Intelligenz (Minsky & Papert, 1974) und die
Möglichkeit einer Imitation des menschlichen Denkens haben WissenschaftlerInnen aus
diversen Disziplinen beschäftigt (z.B. Neisser, 1963; Searle, 1981; Turing, 1950). Der
Vergleich zwischen Maschine und Mensch kann prinzipiell in beiden Richtungen verlaufen
(Caporael, 1986): Nicht nur werden Computern menschliche Fähigkeiten oder Eigenschaften
unterstellt, auch der Mensch wird – beispielsweise in der frühen Kognitionspsychologie – mit
einer Maschine verglichen.
Für unsere Thematik sind diese Debatten insofern von Interesse, als sie zeigen, dass
Computer und Roboter sich – als „evocative objects“ (Turkle, 1984) – in besonderem Maße als
Objekte einer Anthropomorphisierung anbieten, dass sie Menschen potenziell als ebenbürtige
Denker und eigenständige Interaktionspartner erscheinen. Caporael (1986) legt dar, dass wir
auch auf andere künstliche Erzeugnisse und Technologien wie etwa Kugelschreiber, Autos oder
Fernseher – und dies zumeist bei deren Fehlfunktion – mit anthropomorphisierenden Gesten
reagieren, jedoch nicht auf derselben Grundlage wie bei Computern und Roboteragenten: Wir
sind kaum versucht, menschliche Fähigkeiten mit denen von Kugelschreibern, Autos oder
Social Robotics
7
Fernsehern zu vergleichen. Rechner, „Elektronengehirne“ und Computer bieten sich für solche
Projektionen offenbar in einem erheblich größeren Ausmaß an. Aus sozialwissenschaftlicher
und psychologischer Perspektive stellt sich die Frage, wie Menschen mit Maschinen umgehen,
die als Modelle oder gar Imitatoren des menschlichen Geistes und seiner mentalen Operationen
gelten können. Nehmen wir diese Geräte auf ähnliche Weise wahr, wie wir andere Menschen
wahrnehmen? Ansätze zur Unterscheidung sozialer und nichtsozialer Wahrnehmung haben die
vom Beobachter subjektiv empfundene Selbstähnlichkeit des Objekts als zentrales Kriterium
genannt (z.B. Ostrom, 1984); daher sollten wir Objekte, die wir mit uns selbst vergleichen, auch
eher als soziale Akteure auffassen. Diese kurzen diskursgeschichtlichen Überlegungen zeigen,
dass es lohnenswert ist, sich mit der Mensch-Computer-Interaktion (MCI) sowie der Mensch-
Roboter-Interaktion (MRI) auch aus (sozial-)psychologischer Sicht zu beschäftigen.
COMPUTER UND ROBOTER: VERSCHIEDENE ARTEN VON MASCHINEN
Roboter zeichnen sich gegenüber herkömmlichen Computern, deren
Funktionstüchtigkeit an eine technische Peripherie (z. B. Eingabegeräte) gebunden ist, vor
allem durch den Grad der physischen Autonomie bzw. des Embodiments aus (Fong et al., 2003;
Kiesler & Hinds, 2004; Krämer & Bente, 2002). Physische Autonomie beschreibt die Fähigkeit
von Robotern, Veränderungen der Umwelt festzustellen und auf diese selbstgesteuert zu
reagieren, so dass das Verhältnis von Roboter zu Umwelt aktiv verändert wird (vgl. Thrun,
2004, S. 14). Als Hauptzweck autonomer Roboter galt lange Zeit die Durchführung spezieller
technischer Aufgaben in für Menschen unzugänglichen oder gefährlichen Umgebungen, wie
etwa die Inspektion von Ölquellen,Minenräumung oder die Exploration fremder
Himmelskörper (Breazeal, 2003a). Bei solchen Einsätzen war die Interaktion mit Menschen
zweitrangig oder gar nicht vorgesehen. Die Erweiterungen des Einsatzgebiets autonomer
Roboter auf Tätigkeiten im Alltag erfordern jedoch einen direkten Kontakt undKommunikation
mit Menschen. So ist in der entsprechenden Forschungsliteratur zunehmend von sozialen
Robotern die Rede (z. B. Breazeal, 2002, 2003b; Dautenhahn & Billard, 1999; Fong et al.,
2003).
Ob und wie komplexe interaktive und soziale Fähigkeiten technisch realisiert werden
können, ist eine wichtige Frage an der Schnittstelle von theoretischer und angewandter Infor
atik, Robotik, Neuro- bzw. Kognitionswissenschaften und Philosophie des Geistes. Aus
sozialpsychologischer Sicht sind jedoch die objektiven Fähigkeiten des Roboters, die ihn als
„sozial“ auszeichnen, von geringerem Interesse als die subjektive Bereitschaft von Personen,
einen Roboter als sozialen Interaktionspartner aufzufassen. Diese Unterscheidung entspricht
Social Robotics
8
einer Differenzierung zweier verschiedener Designzugänge (Fong et al., 2003). Ein biologisch
orientierter Zugang versucht Roboter zu erschaffen, deren interne Architektur die
Informationsverarbeitung bzw. mentalen Prozesse von Menschen (zumindest Lebewesen)
simuliert. Hingegen setzt sich ein funktional orientierter Zugang das Ziel, Roboter so zu
gestalten, dassMenschen diese als sozialeAkteure akzeptieren und entsprechend behandeln –
auch wenn die interne Architektur derMaschine diese Annahmen nicht rechtfertigt (Fong et al.,
2003). Um das biologisch orientierte Designziel zu erreichen, sind Erkenntnisse
ausAllgemeiner Psychologie, Entwicklungspsychologie (insbesondere der Theory-of-Mind-
Forschung; Scassellati, 2002), Kognitionswissenschaft oder Neurobiologie erforderlich. Um
den funktional orientierten Zugang zu realisieren, sind indes v. a. Erkenntnisse aus der
Sozialpsychologie hilfreich, also etwa Befunde zu Personenwahrnehmung, Eindrucksbildung,
Attribution, Interaktionsprozessen undKooperation.Ummögliche Untersuchungsthemen und -
ansätze weiter zu konkretisieren, skizzieren wir im nächsten Abschnitt überblicksartig
sozialpsychologisch relevante Forschungsbefunde zur MMI.
DIE SOZIALE DIMENSION DER MENSCH-MASCHINE-INTERAKTION:
SOZIALPSYCHOLOGISCH RELEVANTE FORSCHUNGSBEFUNDE
Das Hauptinteresse technisch-anwendungsbezogener Forschung und Entwicklung zur
MMI richtet sich auf die Dienstleistungs- oder Werkzeugfunktion rechnerbasierter
Technologien. Im Vordergrund steht die viel beschworene „Benutzerfreundlichkeit“, die einer
effektiven Realisierung von Zielen des Menschen dienen sollte; die Rolle sozialer Faktoren der
MMI fand in Informatik, Technik und Ingenieurwissenschaft hingegen vergleichsweise wenig
Beachtung. Interessanterweise wurde aber in der Psychologie und den Sozialwissenschaften
bereits vor der massenhaften Verbreitung der Technik auf deren soziale Implikationen und
Effekte hingewiesen (z.B. Caporael & Thorngate, 1984). In einer frühen Untersuchung zur
sozialen Dimension der Mensch-Computer-Interaktion fanden Scheibe und Erwin (1979)
Belege für eine Personifizierung von Computern. Spontane Äußerungen der studentischen
Versuchspersonen (Vpn) bei einem einfachen Strategiespiel gegen einen aus heutiger Sicht
antiken DEC-10 Computer belegten eine deutliche Tendenz zur Anthropomorphisierung der
Maschine. So bezeichneten etwa die Vpn den Computer mit Personalpronomina („du“ oder
„er“) oder dem Ausdruck „dieser Typ“ (engl. „that guy“) und waren offenbar emotional stark
involviert. Wie Scheibe und Erwin anmerken, ist dieses Verhalten vor allem deshalb
bemerkenswert, weil es keinerlei Beitrag zur erfolgreichen Aufgabenbewältigung leistete.
Deutlich wird in dieser Pionierstudie das Spannungsverhältnis zwischen einem normativ
Social Robotics
9
angemessenen, zweckrationalen Umgang mit der Maschine und den wirklich erfolgenden
sozioemotionalen Reaktionen der menschlichen AkteurInnen.
Spätestens seit Mitte der 1990er Jahre wird die Bedeutung der sozialen Dimension für
die MMI auch von InformatikerInnen und ComputeringenieurInnen erkannt. Inspiriert durch
Ansätze zur Situierten Kognition bzw. zu handlungstheoretischen Konzepten forderte
beispielsweise Carroll (1996), dass die Forschung zur MCI in einem größeren Ausmaß den
sozialen Kontext der Computernutzung, insbesondere den Einfluss von Gruppen und
Organisationsstrukturen, berücksichtigen solle (s. auch Takeuchi & Naito, 1995). Das bislang
einflussreichste und umfassendste Forschungsprogramm zur sozialen Dimension der MMI
legten Nass und Mitarbeiter/-innen vor.
Das Forschungsprogramm „Computer als soziale Akteure“
Nass und KollegInnen zufolge (Nass & Moon, 2000; Nass, Moon, Morkes, Kim &
Fogg, 1997; Nass, Steuer, Henriksen & Dryer, 1994; Reeves & Nass, 1996) reagieren
menschliche User auf Computer, als seien diese eigenständige soziale Akteure (Computers As
Social Actors, abgekürzt CASA). Ihre drei Hauptthesen lauten: (1) Menschen verhalten sich in
Begegnungen mit Computern so wie in Begegnungen mit anderen Menschen, sie folgen dabei
den Regeln und Heuristiken, die ihrer Interaktion mit Menschen zugrunde liegen; das heißt,
Menschen zeigen Computern gegenüber sozusagen soziales Verhalten. (2) Personen sind sich
des sozialen Charakters ihres Verhaltens gegenüber Computern nicht bewusst; ihre Reaktionen
werden automatisch ausgelöst und sind „gedankenlos“ (vgl. insbesondere Nass & Moon, 2000).
Der CASA-Ansatz zeichnet sich gegenüber anderen Forschungspositionen im Bereich der MMI
durch sein Bemühen um empirische, vorwiegend experimentelle Prüfung aus. In ihren Studien
bedienten sich Nass und MitarbeiterInnen in der Regel der folgenden Strategie: Ausgehend von
sozialpsychologischen Theorien und Konzepten (z.B. Eindrucksmanagement; soziale
Erleichterung bzw. Hemmung) werden Situationen hergestellt, in denen spezifische Effekte
sozialer Interaktion zwischen Menschen gut belegt sind. An die Stelle eines der
Interaktionspartner tritt ein Computer (genauer: ein Programm, ein embodied agent o.ä.), der
bestimmte rudimentäre Eigenschaften einer Person besitzt (z.B. ein Gesicht, eine Stimme oder
auch nur die Benutzung von Sprache als Textausgabe).
Eine Vielzahl von Studien stützt die Thesen des CASA-Ansatzes. Beispielsweise ändern
sich die Reaktionen von studentischen, überdurchschnittlich gebildeten Vpn gegenüber einem
Computer in Abhängigkeit von dessen angeblichem „Geschlecht“ (Nass, Moon & Green,
1997), dessen angeblicher „Ethnizität“ (Nass, Isbister & Lee, 2000) oder je nach Zugehörigkeit
zum selben Team wie der Computer (Nass, Fogg & Moon, 1996; vgl. aber Lee & Nass, 2002).
Social Robotics
10
In anderen Untersuchungen zeigten die CASA-Forscher/-innen, dass Vpn Computer mit ihnen
selbst ähnlichen „Persönlichkeitseigenschaften“ als attraktiver beurteilen als Computer mit
unähnlichen „Persönlichkeitseigenschaften“ (Nass, Moon, Fogg, Reeves & Dryer, 1995), dass
Vpn für Schmeichelei, d.h. ungerechtfertigte Komplimente des Computers empfänglich sind
(Fogg & Nass, 1997) oder dass sie bereit sind, intime Informationen einem Computer
preiszugeben, der ihnen zuvor analoge Informationen über „sich selbst“ mitgeteilt hat (Moon,
2000). „Soziale“ Reaktionen gegenüber Computern sind offenbar nicht auf kurzfristige,
situationsgebundene Verhaltensweisen beschränkt: So entwickelten studentische Vpn eine Art
„Loyalität“ gegenüber bestimmten Computerterminals in einem Rechenzentrum (Sundar,
2004), was der Autor als Hinweis auf die Bildung längerfristiger sozialer Beziehungen wertet.
Bemerkenswert ist, dass die Vpn der CASAStudien in postexperimentellen Befragungen
jegliche Anthropomorphisierung der Maschine bestritten. In offenen Selbstberichten beharrten
die meisten TeilnehmerInnen darauf, dass sie sich gegenüber Computern niemals sozial
verhalten würden und solches Verhalten als völlig unangemessen empfänden. Nachbefragungen
ergaben zudem keinen Hinweis darauf, dass die Vpn während der Interaktion mit dem
Computer an eine/n Programmierer/in oder irgendeinen anderen „Menschen hinter der
Maschine“ gedacht hatten (vgl. auch Sundar & Nass, 2000).
Eine Schlüsselstudie aus der CASA-Arbeitsgruppe zeigte, dass Vpn im Umgang mit
Computern Regeln der Höflichkeit berücksichtigen, also Verhaltensmaßstäbe aus der Mensch-
Mensch-Kommunikation anlegen. Nass, Moon und Carney (1999) ließen Studierende mit
einem Lernprogramm (Computer-Tutor) interagieren, das ihnen Faktenwissen vermitteln sollte.
Das Programm kommunizierte über ein reines Textinterface nach einem vollständig
festgelegten Ablauf mit den Vpn, die jedoch davon ausgingen, die Rückmeldung des
Computers sei auf ihren Lernfortschritt zugeschnitten. Die zentrale abhängige Variable war die
Bewertung des computerbasierten Tutors durch die Vpn, die in drei experimentellen
Bedingungen erfolgte: (1) Interview durch denselben Computer-Tutor, (2) Interview durch
einen anderen Computer-Tutor und (3) Papier- und Bleistift-Fragebogen. Es zeigte sich, dass
die Vpn in Bedingung (1) im Vergleich zu den beiden anderen Bedingungen den Computer
positiver beurteilten, und dass ihre Urteile eine geringere Varianz aufwiesen. Nass et al. (1996)
interpretierten dieses Ergebnis als Beleg für ihre CASA-Position: Ebenso wie Vpn bei der
Beantwortung von Fragen eines menschlichen Interviewers häufig soziale Normen
berücksichtigen, darunter auch Höflichkeitsregeln, so verhielten sich offenbar auch die Vpn in
der Studie höflich gegenüber dem Computer, mit dem sie zuvor eine gemeinsame Aufgabe
bearbeitet hatten.
Social Robotics
11
Die erwähnten Befunde stimmen insgesamt auf beeindruckende Weise mit der ersten
CASA-These überein. Dass psychologische Prinzipien aus der Mensch-Mensch-Interaktion in
der MCI zu finden sind, belegen auch Arbeiten, die außerhalb der Gruppe um Nass
durchgeführt wurden (vgl. Krämer, in Druck; Krämer & Bente, 2002). Ausgehend von Theorien
der sozialen Erleichterung bzw. Hemmung (z.B. Zajonc, 1965) untersuchten etwa Rickenberg
und Reeves (2000), ob die Anwesenheit eines animierten Agenten auf dem Bildschirm (dem
Albert Einstein ähnelnden Microsoft-Helfer „Genius“ nachempfunden) bei komplexen
Aufgaben zu Ängstlichkeit und Leistungsbeeinträchtigungen führt – vor allem wenn das
Verhalten der Figur suggeriert, dass sie die Person „überwacht“. Die Vpn in dieser Studie
bearbeiteten Aufgaben im Internet Explorer (z.B. Informationssuche), während der animierte
„Einstein“ sich entweder passiv verhielt (liest, kratzt sich am Kopf...) oder die Vp überwachte
(nimmt Blickkontakt auf, schreibt mit). Die Ergebnisse stimmten mit der These zur sozialen
Hemmung überein: Die Vpn gaben beim überwachenden Agenten erhöhte Ängstlichkeit an und
erbrachten schlechtere Leistungen bei der Aufgabenbearbeitung. Kritisch ist anzumerken, dass
die Leistungseinbußen in der Überwachungsbedingung auch durch die größere und variablere
Aktivität der animierten Figur und eine dadurch bewirkte Ablenkung der Vpn bedingt sein
könnten.
Die zweite These des CASA-Ansatzes schließlich ist aus sozialpsychologischer Sicht
insofern interessant, als sie die Prozesse spezifiziert, die soziale Reaktionen auf Computer
vermitteln. Nach Nass und Kollegen/-innen belegen die Divergenzen zwischen den starken
Hinweisen auf soziales Verhalten in der Interaktion mit dem Computer und der explizit
geäußerten Zurückweisung eines sozialen Umgangs mit Computern durch die Vpn in
nachträglichen Befragungen, dass die sozialen Verhaltensweisen gegenüber Computern
automatisch und „gedankenlos“ (Langer, 1989) erfolgen. Nass und MitarbeiterInnen
argumentieren, dass in ihren Studien die Kriterien für gedankenloses Verhalten nach Langer –
also „blindes“ Vertrauen auf erworbene Schemata oder wiederholt durchgeführte, überlernte
Reaktionen – erfüllt waren (Nass & Moon, 2000; vgl. auch Johnson, Gardner & Wiles, 2004).
Beispielsweise wendeten die Vpn in einigen Studien offenbar auf rigide Weise soziale
Kategorien wie Ethnizität (Nass et al., 2000) oder Geschlecht (Nass et al., 1997) auf den
Computer an. In anderen Studien aktivierten die Vpn vertraute soziale Verhaltensroutinen wie
etwa Höflichkeit (Nass et al., 1999) im Umgang mit dem Computer.
Dass die Belege für automatisch-gedankenloses Verhalten auf nachträglichen
Selbstberichten der Vpn beruhen, ist sicherlich als problematisch zu werten. Denn
Selbstauskünfte von Vpn über ihr Verhalten und Denken sind aus verschiedenen Gründen
Social Robotics
12
problematisch (z.B. Nisbett & Wilson, 1977), etwa aufgrund von mangelnder
Auskunftsbereitschaft oder -fähigkeit, sozial erwünschtem Antwortverhalten oder der zeitlichen
Verzögerung zwischen interessierendem Prozess und Abfrage, die prinzipiell dazu führen kann,
dass relevante Erfahrungen vergessen werden. Deshalb ist es ratsam, die bisher angenommene
Diskrepanz zwischen expliziter Verneinung eines sozialen Umgangs und der impliziten
Anerkennung des Computers als Sozialpartner mit Hilfe alternativer Methoden, beispielsweise
Online-Indikatoren für mentale Repräsentationen des Computers, strenger zu prüfen.
Wie Menschen Maschinen wahrnehmen:
Menschenähnlichkeit als unabhängige und abhängige Variable
Der CASA-Ansatz geht davon aus, dass Maschinen auch bei einem geringen Grad an
Menschenähnlichkeit oftmals wie menschliche Interaktionspartner behandelt werden. Jedoch
wird vermutet, dass die Implementierung zusätzlicher menschenähnlicher Merkmale (z.B. eines
personalisierten Interfaces) die Bereitschaft verstärkt, solche Verhaltensweisen gegenüber
Maschinen zu zeigen (Nass, 2004; Nass & Moon, 2000; vgl. Duffy, 2003; Krämer & Bente,
2002). Erstens stellt sich hier also die Frage, welche Folgen das Ausmaß an
Menschenähnlichkeit einer Maschine auf die MMI, zumal auf die Reaktionen des Menschen
hat, also etwa auf Wahrnehmung, Bewertungen und Einstellungen, Attributionen, Emotionen
oder Interaktionsverhalten. Aus methodischer Sicht ist Menschenähnlichkeit hiermit als
unabhängige Variable (UV) angesprochen, die Effekte auf die MMI sowie weitere Erlebens-,
Denk- und Verhaltensparameter haben kann.
Nass und KollegInnen haben wiederholt mögliche Cues vorgeschlagen, die den
Eindruck der Menschenähnlichkeit einer Maschine verstärken könnten, etwa Sprachbenutzung,
Display eines Gesichts, Manifestation von Emotionen, Interaktivität oder Rollenübernahme
(Nass, 2004; Nass et al., 1994). Zweitens stellt sich daher die Frage, von welchen Faktoren die
Menschenähnlichkeit einer Maschine abhängt. In methodischer Terminologie wird
Menschenähnlichkeit hiermit als abhängige Variable (AV) thematisiert, die als Wirkung
anderer Faktoren zu betrachten ist. Die Ausprägung dieser AV kann zum einen natürlich durch
Befragung erhoben werden. Zum anderen liegen auch indirekte Maße für die empfundene
Menschenähnlichkeit vor, die von der Selbstauskunft durch die Vpn unabhängig sind. Die
Studien zum CASA-Ansatz (z.B. Nass & Moon, 2000; Reeves & Nass, 1996) haben bestimmte
Reaktionen (z.B. höfliches Verhalten) von Vpn als Indikatoren für die Akzeptanz einer
Maschine als menschenähnlich eingesetzt. Weitere indirekte Indikatoren für wahrgenommene
Menschenähnlichkeit sind elementare Verhaltensmaße wie visuelle Habituation bei der
Social Robotics
13
Beobachtung von Objekten (v.a. bei Studien mit vorsprachlichen Kindern; Gergely, Nádasdy,
Csibra & Bíró, 1995) oder physiologische Maße wie etwa durch Bildgebung erfasste neuronale
Aktivierungen, die für die Repräsentation anderer Menschen charakteristisch sind oder
typischerweise in der Mensch-Mensch-Interaktion auftreten (z.B. Blakemore, Winston & Frith,
2004). All diese Maße können prinzipiell Auskunft über eine Anthropomorphisierung von
Computern oder Robotern durch Menschen geben.
Menschenähnlichkeit als unabhängige Variable: Erleichterung der Mensch-Maschine-
Interaktion und Erkenntnisse aus dem „Uncanny Valley“
Vielen Ansätzen in Design und Entwicklung von virtuellen Agenten und Robotern liegt
die Annahme zugrunde, dass menschenähnliches Aussehen und Verhalten der Maschine die
Interaktion mit dem Menschen erleichtert oder gar erst ermöglicht (z.B. Cappella & Pelachaud,
2002; Takeuchi & Naito, 1995; vgl. Duffy, 2003). Dieser Annahme zufolge werden Maschinen
mit zunehmender Menschenähnlichkeit als Interaktionspartner für Menschen auch zunehmend
attraktiv oder akzeptabel. In der Tat scheinen bestimmte menschenähnliche Merkmale eines
Roboters den Beginn einer Interaktion mit Menschen zu erleichtern. Bruce, Nourbaksh und
Simmons (2001) untersuchten, ob Personen eher bereit sind, sich auf eine kurze Interaktion mit
einem autonomen Roboter einzulassen, wenn dieser ein menschliches Gesicht besitzt (versus
kein menschliches Gesicht besitzt; erste UV) bzw. wenn der Roboter seinen „Kopf“ (ein
beweglicher Flachbildschirm) auf potentielle Interaktionspartner ausrichtet (versus keine solche
Geste ausführt; zweite UV). Der Roboter sollte im belebten Flur einer Universität PassantInnen
durch Ansprechen zur Teilnahme an einer kurzen Umfrage gewinnen. Die Ausrichtung des
„Kopfs“ erfolgte durch Drehen und Kippen des Flachbildschirms, der das animierte Gesicht
einer jungen Frau zeigte. Es zeigte sich, dass Personen häufiger stehen blieben, wenn der
Roboter seinen Kopf auf sie ausrichtete, als wenn er das nicht tat. Sie blieben außerdem
häufiger stehen, wenn der Roboter ein Gesicht hatte, als wenn er keines hatte.
Andere Ansätze zu sozial-interaktiven Robotern wecken jedoch Zweifel an der
Auffassung, zunehmende Menschenähnlichkeit der Maschine habe generell positive Effekte auf
die MMI bzw. die Wahrnehmung der Maschine durch Menschen (Fong et al., 2003). Von dem
japanischen Robotiker Masahiro Mori (z.B. 1982) stammt die These des „Uncanny Valley“ (dt.
etwa „Tal des Unheimlichen“), derzufolge Menschen auf zunehmend anthropomorphe Roboter
zwar prinzipiell mit zunehmend positiven Gefühlen reagieren, wohingegen ein nahezu, aber
nicht völlig anthropomorpher Roboter jedoch großes Unbehagen und negative Reaktionen
auslöst. Erst wenn dieser Bereich des „Unheimlichen“ bei perfekter Annäherung an das
Social Robotics
14
menschliche Erscheinungsbild wieder verlassen wird, steigt die empfundene Sympathie oder
Attraktivität wieder sprunghaft an (s. Abb. 1). Eine mögliche (sozial-) psychologische
Erklärung für den Effekt des „Uncanny Valley“ könnte lauten, dass der Grad der
Schemaabweichung bei einem sehr menschenähnlichen Stimulusobjekt nicht ausreicht, um die
Aktivierung eines alternativen Schemas auszulösen. Diese geringfügige Abweichung könnte
eine Spannung, ein Inkongruenz-Gefühl erzeugen, das zunächst nicht durch einen
Schemawechsel reduziert werden kann. Im Unterschied zu einer Kippfigur gibt es hier nicht
zwei distinkte Wahrnehmungszustände, die auf der Aktivierung des einen oder des anderen
Konzepts bzw. Schemas basieren. Das Schema „Mensch“ oder „menschlicher
Interaktionspartner“ ist zwar stark aktiviert; das Wahrnehmungsobjekt kann jedoch nicht
vollständig an dieses Schema assimiliert werden, ohne dass sich ein anderes, passenderes
Schema zur Verarbeitung anbietet.
Wenn der funktionale Zusammenhang zwischen Menschenähnlichkeit und der Valenz
menschlicher Reaktionen in der Tat nicht monoton steigend ist, so ist es nicht ratsam, bei der
Gestaltung von Robotern der simplen Maxime „je menschenähnlicher, desto besser“ zu folgen.
Diese spannende Problematik klingt in einigen aktuelleren Arbeiten an (DiSalvo, Gemperle,
Forlizzi & Kiesler, 2002; Kiesler, Sproull, & Waters, 1996; Woods, Dautenhahn & Schulz,
2004). Jedoch liegen noch keine experimentell zureichend kontrollierten Untersuchungen vor,
die eine differenzierte Einschätzung der Gültigkeit bzw. des Geltungsbereichs der
divergierenden Thesen zur Zweckmäßigkeit von Humanidealen erlauben.
Die Überlegungen zum „Uncanny Valley“ haben ExpertInnen aus Informatik und
Robotik dazu veranlasst, die Effekte von Menschenähnlichkeit und humanoidem Design
differenzierter zu betrachten (z.B. Duffy, 2003; Goetz, Kiesler & Powers, 2003; Hinds, Roberts
& Jones, 2004). In diesem Zusammenhang haben Goetz et al. die Passungshypothese (matching
hypothesis) formuliert, derzufolge die Mensch-Roboter-Interaktion um so erfolgreicher verläuft,
je besser das äußere Erscheinungsbild und das Verhalten eines sozialen Roboters mit der
Erwartung des Users bzw. der Rolle und Aufgabe des Roboters übereinstimmen. Das Ziel des
Designs sozialer Roboter besteht demnach nicht einfach darin, die Menschenähnlichkeit des
Roboters immer weiter zu perfektionieren, sondern auf die Erwartungen des Menschen und die
Interaktionserfordernisse abzustimmen. In einer ihrer empirischen Studien überprüften Goetz et
al. (2003) die Hypothese, dass Vpn bei alltagsnahen sozialen Aufgaben (z.B. Tanzunterricht)
menschenähnliche Roboter präferieren, bei weniger sozialen Aufgaben (z.B.
Nachtwächtertätigkeit) eher maschinenähnliche Roboter. Die Vpn sollten in einer Serie von
Paarvergleichen aus den Robotern in Abbildung 2 jeweils diejenigen auswählen, die für
Social Robotics
15
verschiedene Jobs geeignet wären („Alter“ und „Geschlecht“ der Roboter dienten vorwiegend
dem Zweck der Stimulusreplikation). Die Resultate stützen die Passungshypothese, d.h. die
Vpn wählten für die stark interaktiven, sozialen Aufgaben eher die menschenähnliche Roboter,
für die weniger sozialen Aufgaben hingegen eher die maschinenähnlichen Roboter. In einer
weiteren Studie interagierten Vpn mit einem Roboter, der sie entweder bei Fitness-Übungen
anleiten sollte (ernsthafte Aufgabe) oder mit ihnen Rezepte für Jellybeans erfinden sollte
(spielerische Aufgabe). Der Roboter verhielt sich bei der Aufgabenbearbeitung eher ernsthaft
(sprach z.B. sachlich-nüchtern) oder eher spielerisch (machte Scherze, betonte den Spaß an der
Aufgabe). Es zeigte sich, dass die Vpn bei einer Passung zwischen dem Verhaltensstil des
Roboters und der Art der Aufgabe länger mit ihm interagierten.
Die Befunde von Goetz et al. (2003), vor allem die Effekte auf Verhaltensmaße,
widersprechen der These, dass zunehmende Menschenähnlichkeit generell zu größerer
Akzeptanz oder Kooperation der User führt. Für anwendungs- und designorientierte Ansätze ist
sicherlich die These bedenkenswert, dass Roboter und andere künstliche Agenten, die mit
Menschen bei der Aufgabenbearbeitung interagieren, durch ihre Merkmale (z.B. angemessener
Grad an Produkthaftigkeit, Maschinenähnlichkeit oder Künstlichkeit) dem Menschen
realistische Hinweise auf ihre Kompetenzen geben sollten. Weitere Studien sind
wünschenswert, um die Rahmenbedingungen für die Implementierung eines
menschenähnlichen Aussehens und Verhaltens von Robotern und anderen künstlichen
Interaktionspartnern des Menschen zu identifizieren. Zukünftige Forschung sollte neben den
Bedingungen für die positive Wirkung von Menschenähnlichkeit auch die abhängigen
Variablen konzeptuell differenzieren, auf denen sich diese Effekte zeigen können. Es ist
beispielsweise denkbar, dass Menschenähnlichkeit auf explizite Selbstauskünfte (z.B.
Einstellungsratings) nicht die gleiche Wirkung ausübt wie auf Verhaltensmaße (z.B.
Zuwendung von Aufmerksamkeit, Dauer der Interaktion).
Menschenähnlichkeit als abhängige Variable: Faktoren und Bedingungen der
Anthropomorphisierung
In der sozial-, entwicklungs- und kognitionspsychologischen Literatur sind mögliche
Faktoren expliziert worden, die Wahrnehmungsobjekte als lebendig, menschenähnlich und
sozial erscheinen lassen (z.B. Baron-Cohen, 1995; Bretherton, McNew & Beeghly-Smith,
1981; Gelman & Spelke, 1981; Heider, 1958; Ostrom, 1984). Objekte werden z.B. tendenziell
dann als Lebewesen wahrgenommen, wenn sich ihre physische Erscheinung unabhängig von
externen Kräften verändert (Heider, 1958; Ostrom, 1984), sie sich selbstständig fortbewegen
Social Robotics
16
können (Baron-Cohen, 1995; Berry, Misovich, Kean & Baron, 1992; Scholl & Tremoulet,
2000) oder sie eigenständige Richtungs- und Geschwindigkeitsänderungen (Tremoulet &
Feldman, 2000) vornehmen. Wie die klassischen Studien von Heider und Simmel (1944) und
Michotte (1963) nahelegen, kann die Wahrnehmung, ein Objekt habe eigene Ziele und
Intentionen, schon bei bestimmten Bewegungskonstellationen einfacher geometrischer Figuren
erfolgen. Kinder interpretieren solche Formen als intentionale Agenten, wenn diese simple
Bewegungsmuster zeigen, wie etwa die scheinbare „Überwindung“ eines Hindernisses (Gergely
et al., 1995).
Der Eindruck, dass es sich bei einem Stimulusobjekt um einen anderen Menschen oder
ein menschenähnliches Lebewesen handelt, kann außerdem durch die Wahrnehmung ausgelöst
werden, das Objekt verfüge über Augen bzw. ein Gesicht (Baron-Cohen, 1995; vgl. Scassellati,
2002). Bekanntlich sind Menschen aufgrund ihrer neuronalen Ausstattung darauf spezialisiert,
komplexe Reizkonstellationen außerordentlich schnell als Gesichter wahrzunehmen und dabei
sozial relevante Schlüsse zu ziehen (Adolphs, 2003; Cole, 1999). Daher sollten visuell
wahrnehmbare Merkmalsmuster, die als Gesichter interpretierbar sind, besonders wirksame
Hinweisreize darstellen, aus denen auf die Menschenähnlichkeit einer Maschine geschlossen
werden kann.
Dass die Unterscheidung menschlicher und nichtmenschlicher Reizmuster bereits auf
einer elementaren neuronalen Verarbeitungsebene erfolgen kann, zeigen auch interessante neue
Befunde zur motorischen Interferenz bei der Beobachtung fremder Bewegungen. In einem
Experiment von Kilner, Paulignan und Blakemore (2003) bewegten Vpn ihren rechten Arm in
horizontaler oder vertikaler Richtung, während sie einen anderen Menschen oder einen Roboter
beobachteten, der eine kongruente oder inkongruente Armbewegung ausführte. Während die
Beobachtung einer inkongruenten Bewegung des anderen Menschen mit der Durchführung der
eigenen Bewegung interferierte (gemessen an der Varianz der eigenen Bewegungen), trat bei
der Beobachtung des bewegten Roboterarms keine Interferenz auf. Dieser Befund gibt zu der
Vermutung Anlass, dass bereits auf einer tiefliegenden perzeptuell-motorischen
Verarbeitungsebene Hinweise auf die „Menschlichkeit“ von eingehenden
Stimulusinformationen extrahiert werden.
Im Zusammenhang mit der Erforschung der MMI sind hier zwei Aspekte
hervorzuheben. Erstens unterscheiden sich autonome Roboter von anderen
informationsverarbeitenden Maschinen wie etwa herkömmlichen Computern in der Art der
Reize, durch die sei bei menschlichen Beobachterinnen die Wahrnehmung von
Menschenähnlichkeit auslösen können. Da autonome Roboter sich eigenständig bewegen,
Social Robotics
17
können sie in einem größeren Ausmaß als herkömmliche Computer potentiell die gerade
skizzierten Attributionen von Lebendigkeit, Intentionalität und Menschenähnlichkeit auslösen.
Zweitens sollten sowohl Computeragenten als auch Roboter als menschenähnlicher erscheinen,
wenn sie über ein Gesichtsdisplay verfügen. In der Tat werden Computer mit einem Gesichts-
Interface offenbar eher wie menschliche Interaktionspartner behandelt (Sproull, Subramani,
Kiesler, Walker & Waters, 1996; Takeuchi & Naito, 1995; Walker, Sproul & Subramani, 1994;
vgl. aber Kiesler et al., 1996). Zudem trägt das Display eines Gesichts offenbar entscheidend
dazu bei, dass Menschen Roboter als mehr oder weniger menschenähnlich wahrnehmen
(DiSalvo et al., 2002).
Die aufgrund von Bewegungsmustern oder Gesichtsstimuli erfolgende Wahrnehmung
von Lebendigkeit und Menschenähnlichkeit hat vermutlich distinkte Merkmale, durch die sie
sich von anderen, auf höheren Inferenzprozessen beruhenden Arten der Anthropomorphisierung
(wie etwa in den CASA-Studien) unterscheidet. Sie lässt sich kaum willkürlich kontrollieren
oder unterdrücken; d.h. sie zwingt sich der Betrachterin sozusagen auf. In der Terminologie von
Fodor (1983) scheint es sich hier um modulare, von anderen Prozessen unabhängige und
autonom gesteuerte Wahrnehmungsvorgänge (encapsulated processes) zu handeln. So wie es
uns nicht gelingt, die Müller-Lyersche Pfeiltäuschung trotz besseren Wissens in ihrer
Wahrnehmung zu unterdrücken, so können wir uns vermutlich auch entgegen unserer
bewussten Einsicht in die Künstlichkeit von Maschinen kaum dagegen wehren, Maschinen mit
bestimmten Merkmalen wie Gesicht oder Bewegungsfähigkeit als lebendig und sogar
menschenähnlich wahrzunehmen (vgl. Scholl & Tremoulet, 2000).
Parallel zu den elementaren, schnellen und teilweise autonomen Perzeptionsprozessen
können demnach auch „höhere“ Inferenz- und Denkprozesse stattfinden, aus denen sich
Repräsentationen eines Roboters oder Computers ergeben. Im Unterschied zu den schnellen
und momenthaften Perzeptionsprozessen nehmen diese höheren Prozesse verstärkt auf
vorliegende Wissensbestände, Schemata und Überzeugungen Bezug. So bilden Menschen, wie
aktuelle Studien von Lee, Kiesler, Lau und Chiu (2005) zeigen, aufgrund ihrer Wissensbestände
und Erfahrungen auch mentale Repräsentationen von Robotern und deren Kompetenzen. Wie
Ostrom (1984) darlegt, sollte eine Person ein Objekt zudem dann als lebendig oder gar
menschenähnlich wahrnehmen, wenn sie aufgrund ihrer Erfahrungen annimmt, dass das Objekt
potentiell auf selbstrelevante Ereignisse Einfluss nehmen und damit auch Affekte bei ihr
auslösen kann. Objekte wirken demnach umso sozialer und damit menschenähnlicher, je mehr
Kontrolle ein/e Beobachter/in ihnen über sein/ihr eigenes Verhalten und Erleben zuspricht.
Wie oben dargelegt, nehmen die CASA-ForscherInnen um Nass (z.B. Nass & Moon,
Social Robotics
18
2000) an, dass die Behandlung einer Maschine als Sozialpartnerin eine Verhaltenweise
darstellt, die automatisch und spontan aufgrund bestehender Schemata zur Mensch-Mensch-
Interaktion erfolgt. Jedoch bestreiten die Vpn in den CASA-Untersuchungen bei expliziter
Befragung jegliche Anthropomorphisierung. Das Ergebnis spontaner Inferenzprozesse kann
also beträchtlich von dem Ergebnis eher reflektierter oder elaborierter Inferenzen abweichen.
Jenseits der durch elementare Perzeptionsprozessen erzwungenen Anthropomorphisierung kann
daher zwischen eher automatischen, spontanen Inferenzprozessen auf der einen Seite und
reflektierten, bewusst elaborierten Inferenzen auf der anderen Seite unterschieden werden.
Während die von der CASA-Gruppe erhobenen Reaktionen gegenüber Computern als implizite
Maße für anthropomorphisierende Repräsentationen dienen können, wird durch eine offene
Befragung der Vpn eher das Ausmaß expliziter Anthropomorphisierung erfasst. Implizite und
explizite Anthropomorphisierung können dabei durchaus voneinander dissoziiert sein.
Abschließend ist somit festzuhalten, dass eine Anthropomorphisierung von Maschinen durch
verschiedene Faktoren ausgelöst werden kann, dass dabei verschiedene Prozesse
ausschlagebend sein können und dass je nach Art des Prozesses unterschiedliche Maße und
Methoden zur Erfassung erforderlich sind.
AUSBLICK: PERSPEKTIVEN FÜR SOZIALPSYCHOLOGISCHE
FORSCHUNG ZUR MMI
Abschließend möchten wir mögliche Themen für die sozialpsychologische Forschung
zur MMI vorstellen, die aus unserer Sicht als besonders lohnenswert erscheinen. Diese lassen
sich drei klassischen Bereichen sozialpsychologischer Forschung zuordnen: (1) Urteilsprozesse
im sozialen Kontext, (2) Interpersonelle Wahrnehmung und Interaktion, und (3)
Intergruppenbeziehungen.
Urteilsprozesse im Kontext der Mensch-Maschine-Interaktion
Forschung zur Nutzung kognitiver Heuristiken hat am Beispiel der
Basisratenunterschätzung gezeigt, dass Menschen eher in der Interaktion mit einem anderen
Menschen als in der Interaktion mit nicht-menschlichen Akteuren (Computern) irrationale
Entscheidungen fällen, d.h. Entscheidungen, die von einem normativ-logischen Standpunkt aus
defizitär oder unangemessen sind (Schwarz, Strack, Hilton & Naderer, 1991). Tversky und
Kahneman (1974) zeigten in einer klassischen Studie, dass Menschen bei
Wahrscheinlichkeitsurteilen nur in unzureichendem Maß Informationen zur Basisrate verwerten
und (eigentlich irrelevante) Einzelfallinformationen überbewerten. Die Vpn sollten die
Social Robotics
19
Wahrscheinlichkeit einschätzen, dass es sich bei einer zufällig aus einer Gruppe ausgewählten
Person um einen Ingenieur oder Rechtsanwalt handelt. Alle Vpn erhielten Informationen zur
Basisrate, d.h. zum Anteil von Ingenieuren und Rechtsanwälten in der Gruppe (z.B. 70%
Rechtsanwälte). Vpn, die ein individuelles Persönlichkeitsprofil zur Zielperson erhielten,
welches repräsentativ für eine der beiden Berufsgruppen war, berücksichtigten im Vergleich zu
einer Kontrollgruppe, die kein solches Einzelfallprofil erhielt, die Basisrate in einem geringeren
(und normativ zu geringen) Ausmaß bei ihrenWahrscheinlichkeitsurteilen zugunsten der
individuellen Persönlichkeitsdarstellung.
Schwarz et al. (1991) untersuchten, ob diese scheinbare Irrationalität auf die
differentielle Anwendung von Konversationsregeln und -maximen zurückzuführen ist, die dem
Vollzug von Kommunikation zugrunde liegen. Diesen Konversationsmaximen zufolge gehen
AdressatInnen in der Regel davon aus, dass KommunikatorInnen Mitteilungen so formulieren,
dass diese wahrheitsgemäß, aktuell relevant und informativ sind (Grice, 1975). Schwarz et al.
teilten Vpn in einer Bedingung mit, die Einzelfallinformationen seien per Zufall von einem
Computerprogramm ausgewählt worden. In diesem Fall nutzten die Vpn die
Basisrateninformation in größerem Ausmaß als Vpn in einer Bedingung, in der die
Einzelfallinformation angeblich von ForscherInnen zusammengestellt worden war. Diese Form
einer heuristischen Urteilsverzerrung ist also offenbar an die Annahme gebunden, dass der
Interaktionspartner die Einzelfallinformationen intentional zur Formulierung einer relevanten
Mitteilung selegiert hat. Unter dieser Prämisse zeigt das Vorliegen des Basisratenfehlers an,
dass Menschen ihren Interaktionspartnern Intentionen zuschreiben.
Die Befunde von Schwarz et al. (1991) legen den Schluss nahe, dass eine zu ausgeprägte
Menschenähnlichkeit künstlicher Interaktionspartner zu suboptimaler Informationsverarbeitung
und Urteilsbildung auf der Seite des Menschen führen könnte. Zukünftige Forschung sollte die
Situations- und Kontextbedingungen spezifizieren, unter denen größere Menschenähnlichkeit
von künstlichen Agenten und Robotern zu einer verbesserten Nutzung von Informationen durch
den Menschen führt. Von den so gewonnenen Erkenntnissen könnte auch die technische und
ingenieurwissenschaftliche Seite des Roboter- und Computerdesigns profitieren. Zugleich
könnte eine Analyse derjenigen Merkmale von Robotern, die menschliche Interaktionspartner
zur Vernachlässigung der Basisrate verleiten, Aufschluss über die Bedingungen liefern, unter
denen Menschen den künstlichen Agenten eine Form von Intentionalität zubilligen.
Roboter als Interaktionspartner: „Interpersonelle“ Prozesse
Bislang ist ungeklärt, ob das von Nass und KollegInnen (z.B. Nass & Moon, 2000)
Social Robotics
20
festgestellte automatische Sozialverhalten gegenüber Computern auch durch Roboter ausgelöst
werden kann. Prinzipiell sind alle CASA-Studien auf die MRI übertragbar. Die Arbeiten aus
der Gruppe um Nass zeigen aber, dass keine komplexe Robotertechnologie notwendig zu sein
scheint, um soziale und emotionale Reaktionen bei Menschen hervorzurufen. Sehr einfache
Cues und simple Technologien sind offenbar hinreichend. Womöglich ist der Zusammenhang
zwischen Komplexität der „humanoiden“ Cues und den Verhaltenseffekten nichtlinear: Wenn
die beobachteten Effekte tatsächlich automatisch aktiviert werden, sind sie möglicherweise
schwerer zu zeigen, sobald Personen „ihren Autopiloten ausschalten“, sich also nicht mehr
automatisch und gedankenlos verhalten. Auf Computer haben Menschen nicht schon immer
routiniert oder automatisch reagiert, vor allem in der Anfangsphase der massenhaften
Verbreitung (vgl. Sproull, Kiesler & Zubrow, 1984). Beim Kontakt mit sozial-autonomen
Robotern wie Kismet (Breazeal, 2003a, 2003b), die eine neuartige Technologie darstellen, sind
sich Personen vermutlich deutlich bewusst, dass sie mit einer Maschine interagieren. Die aus
der CASA-Forschung bekannten Effekte sollten dann ausbleiben. Dies könnte sich allerdings
ändern, sobald Roboter ebenso zum Alltag gehören wie PCs und andere bekannte
Technologien.
Das Auftreten unbedachter sozialer Reaktionen sollte von gut erforschten Bedingungen
für automatische versus kontrollierte Informationsverarbeitung abhängen, also etwa
verfügbaren Verarbeitungsressourcen oder der Motivation zu angemessener und korrekter
Verarbeitung. Im Unterschied zu automatischen Verhaltensweisen würde ein kontrollierter
Umgang mit Computern die gezielte Manipulation und Steuerung (also eine aufgabenbezogene
Bedienung) von künstlichen Agenten in der Interaktion beinhalten. In diesem Fall würde das
menschliche Verhalten mit der bewussten Auffassung überstimmen, dass es sich bei
künstlichen Agenten um nützliche technische Apparate ohne menschliche
Charaktereigenschaften handelt. Beispielsweise sollten Menschen in einem kontrollierten
Modus formale Kommunikationsmöglichkeiten (etwa in der Form von Programmiersprachen
oder kalkulierten Syntaxanweisungen) gegenüber alltagssprachlichen Äußerungen („Jetzt stell
Dich nicht so an und tu, was ich Dir sage“) und Verhaltensroutinen aus dem menschlichen
Interaktionsgeschehen (Verdrehen der Augen bei Nichtverstehen) bevorzugen. Zukünftige
Forschung könnte ausgehend von bekannten Zwei-Prozess-Konzepten (Chaiken & Trope, 1999;
s.a. Bohner, Moskowitz & Chaiken, 1995) die Bedingungen untersuchen, unter denen
Menschen auf künstliche Agenten in einer eher automatischen oder eher kontrollierten Weise
reagieren.
Im Bereich der interpersonellen Prozesse in der MMI stellt das „Ultimatum Game“
Social Robotics
21
(Guth & Tietz, 1986) ein weiteres interessantes Fallbeispiel dar. Hier erhalten zwei
SpielerInnen die Chance, eine bestimmte Geldsumme zu gewinnen – aber erst, nachdem sie sie
untereinander aufgeteilt haben. Den Vorschlag des „Proposers“ zur Aufteilung der Summe kann
der „Responder“ entweder annehmen oder ablehnen. Falls das Angebot abgelehnt wird, erhält
keine/r der beiden SpielerInnen eine Auszahlung. Aus der rational-normativen Perspektive der
klassischen Spieltheorie sollte der „Proposer“ den kleinstmöglichen Teilbetrag anbieten und der
„Responder“ diesen akzeptieren. Empirisch zeigt sich jedoch, dass Angebote des „Proposers“
näher bei einer „fairen“, also gleichen Aufteilung liegen und dass der „Responder“ dazu
tendiert, „unfaire“, also geringfügige Angebote zurückzuweisen. Wie eine aktuelle MCI-Studie
von Sanfey, Rilling, Aronson, Nystrom und Cohen (2003) zeigt, lehnen Vpn in der Rolle der
„Responder“ geringe, also „unfaire“ Angebote eines Computers deutlich seltener ab als
identische Angebote eines/-r menschlichen Anbieters/-in. Zudem zeigen sich in der Interaktion
mit der Maschine weniger Anzeichen der Verärgerung bei geringen Angeboten als in der
Interaktion mit einem anderen Menschen.Wie andere hier besprochene Studien zeigt auch
die Untersuchung von Sanfey et al., dass Menschen in der Interaktion mit einer Maschine aus
normativer Perspektive weniger fehlerhafte Urteile oder Entscheidungen fällen können als in
der Interaktion mit einem anderen Menschen (zur MMI im Gefangenendilemma vgl. Kiesler,
Sproull & Waters, 1996; Parise, Kiesler, Sproull & Waters, 1999).
Der Einsatz von autonomen Robotern eröffnet neue Möglichkeiten, den Grad der
Menschenähnlichkeit von künstlichen Interaktionspartnern auf verschiedensten Dimensionen zu
variieren. Welche Designmerkmale führen dazu, dass „unfaire“ Angebote eines Roboters im
„Ultimatum Game“ abgelehnt oder akzeptiert werden? Würden Menschen als „Proposer“ eher
einen Roboter als einen Menschen ausbeuten, falls sich letztere gemäß eines Rational Choice-
Modells verhalten (also auch geringfügige Angebote akzeptieren)? Variieren die emotionalen
Reaktionen, beispielsweise der Verärgerung (als „Responder“) oder der Schuld (als
„Proposer“), als Funktion des Anthropomorphisierungsgrads des robotischen
Interaktionsagenten?
Roboter als „Fremdgruppe“: Intergruppenbeziehungen zwischen Menschen und Robotern
Offenbar sind Menschen dazu bereit, Computer auf der Basis humansozialer Kategorien
wie Geschlecht oder Ethnizität zu klassifizieren (vgl. Nass & Moon, 2000). Lassen sich solche
Befunde auch in der Mensch-Roboter-Interaktion replizieren? Und unter welchen Bedingungen
bilden Menschen eine eigene soziale Kategorie für „Roboter“ als Fremdgruppe? Generell
tendieren Menschen zur Stereotypisierung von Fremdgruppen, und der Inhalt solcher
Stereotype hängt vom relativen Status und der Interdependenz zwischen den beteiligten
Social Robotics
22
Gruppen ab. Dem Stereoype-Content-Modell (Fiske, Cuddy, Glick & Xu, 2002) zufolge sind
Stereotype häufig insofern ambivalent, als sie sowohl negative als auch positive Aspekte
beinhalten: Menschen beurteilen Fremdgruppen, die als Konkurrenz zur Eigengruppe
empfunden werden und einen hohen Status haben, zugleich als hoch kompetent (positive
Valenz) und „kalt“ bzw. wenig liebenswert/sympathisch (z.B. „die Reichen“). Hingegen
werden Fremdgruppen mit eher niedrigem Status als inkompetent, aber sympathisch angesehen
(z.B. „Behinderte“). Wenn Menschen auch auf Roboter Stereotype anwenden, was ist der Inhalt
solcher Stereotype? Je nach Merkmalen oder Verhaltensweisen der Roboter könnten beide
Varianten des Stereoype-Content-Modells zutreffen: Bestimmte Klassen von Robotern (z.B.
Roboter, die v.a. der Umsetzung schwieriger technischer Aufgaben dienen) die könnten als
hochgradig kompetent (wenn auch nur in Bezug auf ein umgrenztes Aufgabengebiet), aber
zugleich kalt und unsympathisch wahrgenommen werden. Andere Arten von Computern (z.B.
SONYs Roboterhund Aibo) könnten Menschen hingegen als sympathisch und liebenswert
empfinden, ihnen zugleich aber nur geringe Kompetenz zusprechen.
Wenn sich solche Intergruppenwahrnehmungen empirisch bestätigen lassen, wie prägen
sie die Mensch-Roboter-Interaktion? Sollten sozial interaktive Roboter eine Art
„Gruppenidentität“ gegenüber ihren menschenlichen Partnern aufweisen oder zur Schau stellen,
so dass auch die mögliche Unsicherheit der Menschen im Umgang mit den künstlichen Agenten
reduziert wird? Offenbar verlassen sich Menschen bei der Konstruktion einer gemeinsamen
Realitätssicht (Shared Reality) in einem deutlich größeren Ausmaß auf Mitglieder ihrer eigenen
Gruppe als auf Fremdgruppenmitglieder (Echterhoff, Higgins & Groll, 2005; Festinger, 1950).
Eignen sich Roboter ebenso wenig wie Fremdgruppenmitglieder als soziale Partner bei der
gemeinsamen Realitätsbildung? Und wenn dies der Fall ist, gibt es Merkmale oder
Eigenschaften (wie etwa Hinweise auf Kompetenz, Expertise oder Vertrauenswürdigkeit),
durch die sie sich als geeignete „Kokonstrukteure“ einer Shared Reality qualifizieren können?
Wie auch diese Überlegungen zu Intergruppenbeziehungen zwischen Menschen und
Robotern zeigen, eröffnen Untersuchungen der MMI neue Möglichkeiten zur Untersuchung
originär sozialpsychologischer Forschungsfragen. Der vorliegende Beitrag kann, so hoffen wir,
SozialpsychologInnen dazu ermutigen, die aktuellen technologischen Fortschritte sowohl für
genuin sozialpsychologische Forschungsinteressen als auch für eine theorie- und
methodenkritische Perspektivierung der MMI zu nutzen.
Social Robotics
23
Literatur
Adolphs, R. (2003). Cognitive neuroscience of human social behavior. Nature Reviews
Neuroscience, 4, 165-178.
Baron-Cohen, S. (1995). Mindblindness. Cambridge, MA: MIT Press.
Berry, D. S., Misovich, S. J., Kean, K. J., Baron, R. M. (1992). Effects of disruption of structure
and motion on perceptions of social causality. Personality & Social Psychology Bulletin, 18,
237-244.
Blakemore, S. J., Winston, J. & Frith, U. (2004). Social cognitive neuroscience: Where are we
heading. Trends in Cognitive Sciences, 8, 216-222.
Bohner, G., Moskowitz, G. B., & Chaiken, S. (1995). The interplay of heuristic and systematic
processing of social information.. European Review of Social Psychology, 6, 33-68.
Breazeal, C. (2002). Designing sociable robots. Cambridge, MA: MIT Press.
Breazeal, C. (2003a). Emotion and sociable human robots. International Journal of Human-
Computer Studies, 59, 119-155.
Breazeal, C. (2003b). Toward sociable robots. Robotics and Autonomous Systems, 42, 167-175.
Bretherton, I., McNew, S. & Beeghly-Smith, M. (1981). Early person knowledge as expressed
in gestural and verbal communication: When do infants acquire a “Theory of Mind”? In M.
Lamb & L. Sherrod (Eds.), Infant social cognition: Empirical and theoretical considerations
(pp. 333-373). Hillsdale, NJ: Erlbaum.
Bruce, A., Nourbakhsh, I. & Simmons, R. (2001). The role of expressiveness and attention in
human-robot interaction. Proceedings of the 2001 AAAI Fall Symposium, AAAI Press, Cape
Cod, 4138-4142.
Caporael, L. R. & Thorngate, W. (1984). Introduction: Toward the social psychology of
computing. Journal of Social Issues, 40, 1-13.
Caporael, L. R. (1986). Anthropomorphism and mechanomorphism: Two faces of the human
machine. Computers in Human Behavior, 2, 215-234.
Cappella, J. N., & Pelachaud, C. (2002). Rules for responsive robots: Using human interactions
to build virtual interactions. In H. T. Reis et al. (Eds.), Stability and change in relationships.
(pp.325-353). New York: Cambridge University Press.
Carrol, J. M. (1996). Becoming social: Expanding scenario-based approaches in HCI.
Behaviour & Information Technology, 15, 266-275.
Chaiken, S., & Trope, Y. (1999). Dual-process theories in social psychology. New York:
Guilford.
Cole, J. (1999). About face. Cambridge, MA: MIT Press.
Social Robotics
24
Dautenhahn, K., & Billard, A. (1999). Bringing up robots or – the psychology of socially
intelligent robots: From theory to implementation. In: Proceedings of the Autonomous
Agents, 366-367.
DiSalvo, C. F., Gemperle, F., Forlizzi, J., & Kiesler, S. (2002). All robots are not created equal:
The design and perception of humanoid robot heads. DIS Conference Proceedings, London,
England, June 25-28, 2002, pp. 321-326.
Duffy, B.R. (2003). Anthropomorphism and the social robot. Robotics and Autonomous
Systems, 42, 177–190.
Echterhoff, G., Higgins, E.T. & Groll, S. (2005). Audience-tuning effects on memory: The role
of shared reality. Journal of Personality and Social Psychology, 89, 257–276.
Festinger, L. (1950). Informal social communication. Psychological Review, 57, 271-282.
Fiske, S. T., Cuddy, A. J. C., Glick, P., & Xu, J. (2002). A model of (often mixed) stereotype
content: Competence and warmth respectively follow from perceived status and competition.
Journal of Personality and Social Psychology, 82, 878-902.
Fodor, J. A. (1983). The modularity of mind. Cambridge, MA: MIT Press.
Fogg, B. J. & Nass, C. (1997). Silicon sycophants: The effects of computers that flatter.
International Journal of Human-Computer Studies, 46, 551-561.
Fong, T., Nourbakhsh, I., & Dautenhahn, K. (2003). A survey of socially interactive robots.
Robotics and Autonomous Systems, 42, 143-166.
Gelman, R & Spelke, E. (1981). The development of thoughts about animate and inanimate
objects: Implications for research on social cognition. In J. Flavell & L. Ross (Eds.), Social
cognitive development: Frontiers and possible futures (pp. ##-##). Cambridge: Cambridge
University Press.
Gergely, G., Nádasdy, Z., Csibra, G. & Bíró, S. (1995). Taking the intentional stance at 12
months of age. Cognition, 56, 165-193.
Goetz, J., Kiesler, S. & Powers, A. (2003). Matching robot appearance and behavior to tasks to
improve human-robot cooperation. In Proceedings of the 12th IEEE Workshop on Robot
and Human Interactive Communication. ROMAN 2003, Oct. 31 - Nov. 2, IXX (pp. 55-60).
Graf, B., Hans, M. & Schraft, R. D. (2004). Care-O-Bot II: Development of a next generation
robotic home assistant. Autonomous Robots, 16, 193–205.
Gregory, R. L. (1973). The confounded eye. In R. L. Gregory & E. H. Gombrich (Eds.),
Illusion in nature and art (pp. 49-96). London: Duckworth.
Grice, H. P. (1975). Logic and conversation. In P. Cole, & J. L. Morgan (Eds.), Syntax and
semantics: Speech acts (Vol. 3, pp. 41-58). New York: Academic Press.
Social Robotics
25
Guth, W. & Tietz, R. (1986). Auctioning ultimatum bargaining positions: How to act if rational
decisions are unacceptable? In R. W. Scholz (Ed.), Current issues in West German decision
research. (pp.173-185). New York: Peter Lang.
Heider, F. (1958). The psychology of interpersonal relations. New York: Wiley.
Heider, F. & Simmel, M. (1944). An experimental study of apparent behavior. American
Journal of Psychology, 57, 243-259.
Hinds, P. J., Roberts, T. L., & Jones, H. (2004). Whose job is it anyway? A study of human-
robot interaction in a collaborative task. Human-Computer Interaction, 19, 151-181.
Johnson, D., Gardner, J., & Wiles, J. (2004). Experience as a moderator of the media equation:
The impact of flattery and praise. International Journal of Human-Computer Studies, 61,
237-258.
Kanda, T., Hirano, T., Easton, D. & Ishiguro, H. (2004). Interactive robots as social partners
and peer tutors for children: A field trial. Human-Computer-Interaction, 19 (1-2), 61-84.
Kiesler, S. & Hinds, P. (2004). Introduction to this special issue on human-robot interaction.
Human-Computer Interaction, 19, 1-8.
Kiesler, S., Sproull, L., & Waters, K. (1996). A prisoner’s dilemma experiment on cooperation
with people and human-like computers. Journal of Personality and Social Psychology, 70,
47-56.
Kilner, J. M., Paulignan, Y. & Blakemore, S. J. (2003). An interference effect of observed
biological movement on action. Current Biology, 13, 522-525.
Krämer, N.C. (in Druck). Soziale Wirkungen virtueller Helfer. Stuttgart: Kohlhammer.
Krämer, N. C., & Bente, G. (2002). Virtuelle Helfer: Embodied Conversational Agents in der
Mensch-Computer-Interaktion. In G. Bente, N. C. Krämer & A. Petersen (Eds.), Virtuelle
Realitäten (pp. 203-225). Göttingen: Hogrefe.
Langer, E. J. (1989). Mindfulness. Reading, MA: Addison-Wesley.
Lee, E.-J. & Nass, C. (2002). Experimental tests of normative group influence and
representation effects in computer-mediated communication: When interacting via
computers differs from interacting with computers. Human Communication Research, 28,
349-381.
Lee, S.-L., Kiesler, S., Lau, I.Y.-M. & Chiu, C.-Y. (2005). Human mental models of humanoid
computers. Proceedings of the International Conference on Robotics and Automation,
Barcelona, Spain, http://www.peopleandrobots.org/admin/uploads/LeeKiesleretAlICRA05.pdf
Michotte, A. (1963). The perception of causality. New York: Basic Books.
Moon, Y. (2000). Intimate exchanges: Using computers to elicit self-disclosure from
Social Robotics
26
consumers. Journal of Consumer Research, 26, 324-340.
Mori, M. (1982). The Buddha in the robot. Boston, MA: Tuttle.
Nass, C. (2004). Etiquette equality: Exhibitions and expectations of computer politeness.
Communications of the ACM, 47, 35-37.
Nass, C., Fogg, B. J., & Moon, Y. (1996). Can computers be teammates? International Journal
of Human-Computer Studies, 45, 669-678.
Nass, C., Isbister, K., & Lee, E-J. (2000). Truth is beauty: Researching conversational agents.
In J. Cassells, J. Sullivan, S. Prevost, & E. Churchill (Eds.), Embodied conversational agents
(pp. 374-402). Cambridge, MA: MIT Press.
Nass, C. & Moon, Y. (2000). Machines and mindlessness: Social responses to computers.
Journal of Social Issues, 56, 81-103.
Nass, C., Moon, Y., & Carney, P. (1999). Are people polite to computers? Responses to
computer-based interviewing systems. Journal of Applied Social Psychology, 29, 1093-1110.
Nass, C., Moon, Y., Fogg, B. J., Reeves, B. & Dryer, D.C. (1995). Can computer personalities
be human personalities? International Journal of Human Computer Studies, 43, 223-239.
Nass, C., Moon, Y., & Green, N. (1997). Are computers gender-neutral? Gender stereotypic
responses to computers. Journal of Applied Social Psychology, 27, 864-876.
Nass, C., Moon, Y., Morkes, J., Kim, E. Y., & Fogg, B. J. (1997). Computers are social actors:
A review of current research. In B. Friedman (Ed.), Moral and ethical issues in human-
computer interaction (pp. 137-162). Stanford, CA: CSLI Press.
Nass, C., Steuer, J. S., Henriksen, L., & Dryer, D. C. (1994). Machines and social attributions:
Performance assessments of computers subsequent to “self” or “other” evaluations.
International Journal of Human-Computer Studies, 40, 543-559.
Neisser, U. (1963).The imitation of man by machine. Science, 139, 193-197.
Nisbett, R. E. & Wilson, D. (1977). Telling more than we can know: Verbal reports on mental
processes. Psychological Review, 84, 231-253.
Ostrom, T. M. (1984). The sovereignty of social cognition. In R. S. Wyer, Jr. & T. K. Srull
(Eds.), Handbook of social cognition (Vol. 1, pp. 1-38). Hillsdale, NJ: Erlbaum.
Parise, S., Kiesler, S., Sproull, L., & Waters, K. (1999). Cooperating with life-like interface
agents. Computers in Human Behavior, 15, 123-142.
Pineau, J., Montemerlo, M., Pollack, M., Roy, N. & Thrun, S. (2003). Towards robotic
assistants in nursing homes: Challenges and results. Robotics and Autonomous Systems, 42,
271-281.
Reeves, B. & Nass, C. I. (1996). The media equation: How people treat computers, television,
Social Robotics
27
and new media like real people and places. Stanford, CA: CSLI Publications.
Rickenberg, R., & Reeves, B. (2000). The effects of animated characters on anxiety, task
performance, and evaluations of user interfaces. Proceedings of the SIGCHI Conference on
Human Factors in Computing Systems, 49-56.
Sanfey, A. G., Rilling, J. K., Aronson, J. A., Nystrom, L. E., & Cohen, J. S. (2003). The neural
basis of economic decision-making in the ultimatum game. Science, 300, 1755-1758.
Scassellati, B. (2002). Theory of mind for a humanoid robot. Autonomous Robots, 12, 13-24.
Scheibe, K. E. & Erwin, M. (1979). The computer as alter. Journal of Social Psychology, 108,
103-109.
Schwarz, N., Strack, F., Hilton, D. J., & Naderer, G. (1991). Base rates, representativeness, and
the logic of conversation: The contextual relevance of "irrelevant" information. Social
Cognition, 9, 67-84.
Searle, J. R. (1981). Minds, brains and programs. In D. R. Hofstadter & D. C. Dennett (Eds.),
The Mind’s I: Fantasies and reflections on self and soul (pp. 353-373). Toronto. Bantam.
Sproull, L., Kiesler, S. & Zubrow, D. (1984). Encountering an alien culture. Journal of Social
Issues, 40, 31-48.
Sproull, L., Subramani, M., Kiesler, S., Walker, J. H. & Waters, K. (1996). When the interface
is a face. Human Computer Interaction, 11, 97-124.
Sundar, S. S. (2004). Loyalty to computer terminals: Is it anthropomorphism or consistency?
Behavior & Information Technology, 23, 107-118.
Sundar, S. S. & Nass, C. (2000). Source orientation in human–computer interaction:
Programmer, networker, or independent social actor? Communication Research, 27, 683-
703.
Takeuchi, A., & Naito, T. (1995). Situated facial displays: Towards social interaction. In I. Katz
et al. (Eds), Human factors in computing systems: CHI’95 conference proceedings (pp. 450-
455). New York: ACM Press.
Thrun, S. (2004). Toward a framework for human-robot interaction. Human Computer
Interaction, 19, 9 -24.
Tremoulet, P. D. & Feldman, J. (2000). Perception of animacy from the motion of a single
object. Perception, 29, 943-951.
Turing, A. (1950). Computing machinery and intelligence. Mind, 59, 433-460.
Turkle, S. (1984). The second self: Computers and the human spirit. New York: Simon &
Schuster.
Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases.
Social Robotics
28
Science, 185, 1124-1131.
UNECE (United Nations Economic Commission for Europe). (2004). World robotics 2004.
Satistics, market analysis, forecasts, case studies and profitability of robot investment.
Geneva: UN.
Walker, J. H., Sproull, L.&Subramani, R. (1994). Using a Human Face in an Interface. Human
Factors in Computing Systems: CHI’94 Conference Proceedings (pp. 85–91). Boston: ACM.
Woods, S., Dautenhahn, K., & Schulz, J. (2004), The design space of robots: Investigating
children’s views. Proc. IEEE Ro-man 2004, 13th IEEE International Workshop on Robot
and Human Interactive Communication, September 20-22, 2004, Kurashiki, Okayama Japan,
IEEE Press, pp. 47-52.
Zajonc, R. B. (1965). Social facilitation. Science, 149, 269-274.
Social Robotics
29
Abbildung 1. Der Zusammenhang zwischen Menschenähnlichkeit und Akzeptanz von
Maschinen – das "Uncanny Valley" bei geringer Abweichung von perfekter
Menschenähnlichkeit.
Social Robotics
30
Abbildung 2. Bilder von Robotern, die von Vpn in der Studie von Goetz, Kiesler und Powers
(2003) beurteilt wurden. (© Goetz, Kiesler und Powers, 2003. Reproduziert mit freundlicher
Erlaubnis der AutorInnen.).
jugendlich erwachsen
männlich weiblich männlich weiblich
Mensch
Hybrid
Maschine
top related