“social robotics” und mensch-maschine-interaktion

30
Social Robotics 1 Lauftitel: SOCIAL ROBOTICS „Social Robotics“ und Mensch-Maschine-Interaktion: Aktuelle Forschung und Relevanz für die Sozialpsychologie Gerald Echterhoff, Gerd Bohner & Frank Siebler Universität Bielefeld Wir danken Nicole Krämer für Kommentare und kritische Hinweise zu einer früheren Fassung dieses Beitrags. Pre-print final manuscript version of Echterhoff, G., Bohner, G., & Siebler, F. (2006). "Social Robotics" und Mensch-Maschine-Interaktion: Aktuelle Forschung und Relevanz für die Sozialpsychologie [Social robotics and human- machine interaction: Current research and its relevance for social psychology]. Zeitschrift für Sozialpsychologie, 37, 219-231. doi: 10.1024/0044-3514.37.4.219 This article does not exactly replicate the final version published in the journal. It is not a copy of the original published article and is not suitable for citation.

Upload: independent

Post on 16-May-2023

0 views

Category:

Documents


0 download

TRANSCRIPT

Social Robotics

1

Lauftitel: SOCIAL ROBOTICS

„Social Robotics“ und Mensch-Maschine-Interaktion:

Aktuelle Forschung und Relevanz für die Sozialpsychologie

Gerald Echterhoff, Gerd Bohner & Frank Siebler

Universität Bielefeld

Wir danken Nicole Krämer für Kommentare und kritische Hinweise zu einer früheren Fassung

dieses Beitrags.

Pre-print final manuscript version of Echterhoff, G., Bohner, G., & Siebler, F. (2006). "Social Robotics" und Mensch-Maschine-Interaktion:

Aktuelle Forschung und Relevanz für die Sozialpsychologie [Social robotics and human-machine interaction: Current research and its relevance for social psychology]. Zeitschrift für Sozialpsychologie, 37, 219-231. doi: 10.1024/0044-3514.37.4.219

This article does not exactly replicate the final version published in the journal. It is not a copy of the original published article and is not suitable for citation.

Social Robotics

2

Zusammenfassung

Aus aktuellen Entwicklungen zur Mensch-Maschine-Interaktion (MMI), insbesondere auf dem

wachsenden Feld der Social Robotics, entstehen neuartige Perspektiven für die

sozialpsychologische Forschung. Da Computer und Roboter sich in besonderem Maße als

Objekte einer Anthropomorphisierung eignen, sollten psychologische Zugänge auch in diesem

Forschungsfeld hilfreich sein. Ausgehend von Unterscheidungen zwischen verschiedenen

Typen dieser Maschinen sowie zwischen biologisch und funktional orientierten Designzielen

werden mögliche Beiträge der Sozialpsychologie zur interdisziplinären Forschung und

Entwicklung skizziert. Befunde zur sozialen Dimension der MMI werden vorgestellt und

diskutiert: das Forschungsprogramm „Computer als soziale Akteure“ sowie Ansätze zur

Menschenähnlichkeit der Maschine als unabhängiger und abhängiger Variablen. Abschließend

schlagen wir spezifische Themen für die zukünftige sozialpsychologische Forschung in drei

klassischen Bereichen vor (Urteilsprozesse im Kontext der MMI, „interpersonelle“ Prozesse

und Intergruppenbeziehungen).

Schlüsselwörter: Mensch-Computer-Interaktion, Mensch-Maschine-Interaktion, Roboter,

Social Robotics, soziale Kognition

Social Robotics

3

English Abstract

Social Robotics and Human-Machine Interaction:

Current Research and Relevance for Social Psychology

Recent developments in human-machine interaction (HMI), especially in the growing field of

social robotics, suggest new perspectives for social-psychological research. Because computers

and robots represent objects particularly amenable to anthropomorphization, psychological

approaches can be fruitfully applied in this field. Based on a distinction between types of

machines and biologically versus functionally oriented design, we outline potential

contributions of social psychology to interdisciplinary research and development. We review

and discuss research bearing on the social dimension of HMI: the “computers as social actors”

research program, and approaches using the human-likeness of machines as independent or

dependent variable. We conclude by proposing specific topics for future research in three

classic areas (judgment processes in the context of HMI, “interpersonal” processes, and

intergroup relations.)

Keywords: human-computer interaction, human-machine interaction, robot, social robotics

Social Robotics

4

“Don’t anthropomorphize your computers; they really hate that!”

– Appell im World Wide Web

Roboter und andere „intelligente Maschinen“ sind uns aus Medien und Literatur, vor

allem der Science Fiction, wohlbekannt. In Krieg der Sterne spielen der niedliche R2D2 und

der ängstliche C3PO beständige Begleiter der Helden, in Per Anhalter durch die Galaxis folgt

der depressive Marvin unwillig den Protagonisten bei ihren kosmischen Abenteuerreisen. Seit

Beginn des modernen technischen Fortschritts gehört das Bild vom Roboter als Partner oder

Gegner des Menschen zum Inventar utopischer Fantasien. Heute ist der Kontakt mit solchen

künstlichen Agenten keine bloße Zukunftsvision mehr. Computerbasierte künstliche Agenten

haben ihren festen Platz in industrieller Produktion, Arbeitswelt und Unterhaltung

eingenommen. Den NutzerInnen handelsüblicher Massen-Software sind Figuren wie Clippy,

die Textverarbeitungsassistentin in Gestalt einer Büroklammer, bestens vertraut;

nichtmenschliche, zumeist anonyme Dialogpartner erteilen Auskünfte am Telefon; und

TeilnehmerInnen an psychologischen Untersuchungen kommunizieren immer weniger mit

VersuchsleiterInnen aus Fleisch und Blut als mit computerbasierten Interfaces. Bereits die

Alltagserfahrung zeigt, dass Menschen solche künstlichen Agenten nicht nur als technische

Werkzeuge zur effizienteren Zielerreichung, also nicht nur aus der zweckrationalen Perspektive

des Users betrachten. Vielmehr müssen wir bisweilen erstaunt feststellen, dass der Umgang mit

solchen künstlichen Agenten auch eineWirkung auf unsere Emotionen oder sozialen

Kognitionen ausübt. Beispielsweise berichtete uns eine erfahrene Computernutzerin, dass sie

beim ungefragten Erscheinen des Hunds Rocky, des Suchassistenten eines weit verbreiteten

Betriebssystems, häufig eine eigentlich unnötige Frage eintippt – um das virtuelle Hündchen,

das schon erwartungsfroh mit dem Schwanz wedelt, nicht zu enttäuschen.

Glaubt man aktuellen Prognosen und Meinungen von ExpertInnen, so werden schon in

naher Zukunft auch Roboter, also physisch autonome Agenten, verstärkt in Alltag und Haushalt

Einzug halten. So hilft der Care-O-Bot des Fraunhofer-Instituts für Produktionstechnik und

Automatisierung bei der Bewältigung von Alltagsaufgaben wie etwa beim Öffnen von Türen

und Schränken (Graf, Hans & Schraft, 2004). Der japanische Premierminister Koizumi bringt

zu offiziellen Empfängen bisweilen den Honda-Roboter Asimo mit, der Staatsgästen die Hand

schüttelt. Während solche Entwicklungen nur langsam ins öffentliche Bewusstsein dringen,

sind die Prognosen für die weitere Entwicklung eindeutig: Der UN-Bericht „World Robotics

2004“ (UNECE, 2004) sagt eine Vervierfachung der Roboterpopulation bis 2007 voraus.

Langfristig werden dem Bericht zufolge Roboter nicht nur Rasen mähen und Häuser bewachen,

Social Robotics

5

sondern auch pflegebedürftigen Menschen beistehen (z.B. Pineau, Montemerlo, Pollack, Roy &

Thrun, 2003), SchülerInnen und Studierenden beim Wissenserwerb helfen (z.B. Kanda, Hirano,

Eaton & Ishiguro, 2004) und viele andere Aufgaben im privaten Raum übernehmen. Das

Trendbarometer im Wirtschaftsteil der Süddeutschen Zeitung bescheinigte im April 2004 der

Robotertechnologie für den Alltag höchste „Bedeutung“ und maximalen „Innovationsgrad“.

Aus Sicht der Psychologie sind diese Entwicklungen aus mindestens zwei Gründen

hochinteressant. Erstens erfordert die technologische Realisierung sozial interagierender

Maschinen Expertise und Erkenntnisse, die zentrale Fragen der psychologischen Forschung

berühren, darunter v.a. der Sozial- und Kommunikationspsychologie, aber auch der

Wahrnehmungs- und Sprachpsychologie. Beispielsweise sollten sozial intelligente Roboter

wissen, welche Merkmale einer Person bestimmte innere Zustände (Stimmung, Befinden,

Intentionen) anzeigen oder auf welche Ursachen oder Bedingungen wahrnehmbare soziale

Reize (verbale Äußerungen oder Mimik, Bewegung, Gestik) schließen lassen. Das Design von

künstlichen Agenten, die auf ihre menschlichen InteraktionspartnerInnen adäquat reagieren, ist

also auf Forschungsbefunde und Konzepte aus der Psychologie, vor allem Grundlagenwissen

aus der Sozialpsychologie, angewiesen (vgl. auch Fong, Nourbakhsh & Dautenhahn, 2003;

Scassellati, 2002). In der Tat bedienen sich beispielsweise die

KommunikationswissenschaftlerInnen um Clifford Nass schon seit geraumer Zeit in Studien zu

ihrem „Computers as Social Actors“-Programm (z.B. Nass & Moon, 2000; Reeves & Nass,

1996) sozialpsychologischen Lehrbuchwissens, um Reaktionen menschlicher User auf

Computer und künstliche Agenten zu untersuchen. Aus den dynamischen Innovationen im

Bereich der Robotik und angewandten Informatik ergibt sich für das Feld der MMI ein

beständiger Forschungsbedarf, dem wohl nur durch interdisziplinären Projekte, gerade mit

Beteiligung der Sozialpsychologie, begegnet werden kann.

Zweitens eröffnet die Erforschung sozialer Prozesse in der MMI neuartige Zugänge zur

Untersuchung sozialer Kognition, sozialer Interaktion und der dabei auftretenden emotionalen

Prozesse bei Menschen. Exemplarisch sei hier die Analyse von „unangemessenen“

Verhaltensweisen gegenüber künstlich-technischen Interaktionspartnern genannt. Studien zur

MMI in experimentellen Spielsituationen etwa können erhellen, welchen Einfluss technisch-

ästhetische Gestaltungsmerkmale (z.B. das Interface-Design) auf die Kooperationsbereitschaft

von Menschen gegenüber künstlichen Agenten haben. Der Nutzen der Berücksichtigung von

Mensch-Maschine-Studien für die Sozialpsychologie besteht darin, dass

Untersuchungsergebnisse Rückschlüsse auf die Mechanismen kooperativen Verhaltens in der

Mensch-Mensch-Interaktion zulassen. Die Attribution menschenähnlicher Eigenschaften auf

Social Robotics

6

einen künstlichen Agenten kann etwa Hinweise auf die Prinzipien liefern, die interpersoneller

Wahrnehmung und Eindrucksbildung überhaupt zugrunde liegen. Analog zum Nutzen der

Erforschung von Wahrnehmungstäuschungen (vgl. Gregory, 1973), können Divergenzen

zwischen subjektiven Eigenschaftsattributionen und „objektiven“, d.h. technisch

implementierten Eigenschaften von Robotern neue Erkenntnisse zu den Mechanismen sozialer

Kognition und Interaktion im menschlichen Beziehungsgeschehen erbringen (vgl. Caporael,

1986: „The question of what makes people think machines can think is a question about what

makes us think other people can think“, S. 232). Da die Merkmale eines computergestützten

Agenten oder eines Roboters (z.B. physisches Erscheinungsbild, Mimik, Gestik) im Vergleich

zu denen eines menschlichen Interaktionspartners leichter manipulierbar sind, bietet der Einsatz

von Robotern (versus menschlichen KonfidentInnen) ein erweitertes Potential zur Erforschung

von Kooperations- und Kommunikationsparametern (z.B. Breazeal, 2002).

MENSCHEN UND INFORMATIONSVERARBEITENDE MASCHINEN

Im Unterschied zu älteren Maschinen wie z.B. Motoren funktionieren Computer und

Roboter auf der Grundlage von Informationsverarbeitungstechnologie. Die Möglichkeit der

Verarbeitung abstrakter Größen und Symbole hatte zunächst die Hoffnung geweckt,

computerbasierte Maschinen könnten Fähigkeiten des menschlichen Geistes bzw. des Gehirns

nachbilden und sogar übertreffen. So wurden die ersten Computer auch als „Elektronengehirne“

tituliert; und intensive Debatten über künstliche Intelligenz (Minsky & Papert, 1974) und die

Möglichkeit einer Imitation des menschlichen Denkens haben WissenschaftlerInnen aus

diversen Disziplinen beschäftigt (z.B. Neisser, 1963; Searle, 1981; Turing, 1950). Der

Vergleich zwischen Maschine und Mensch kann prinzipiell in beiden Richtungen verlaufen

(Caporael, 1986): Nicht nur werden Computern menschliche Fähigkeiten oder Eigenschaften

unterstellt, auch der Mensch wird – beispielsweise in der frühen Kognitionspsychologie – mit

einer Maschine verglichen.

Für unsere Thematik sind diese Debatten insofern von Interesse, als sie zeigen, dass

Computer und Roboter sich – als „evocative objects“ (Turkle, 1984) – in besonderem Maße als

Objekte einer Anthropomorphisierung anbieten, dass sie Menschen potenziell als ebenbürtige

Denker und eigenständige Interaktionspartner erscheinen. Caporael (1986) legt dar, dass wir

auch auf andere künstliche Erzeugnisse und Technologien wie etwa Kugelschreiber, Autos oder

Fernseher – und dies zumeist bei deren Fehlfunktion – mit anthropomorphisierenden Gesten

reagieren, jedoch nicht auf derselben Grundlage wie bei Computern und Roboteragenten: Wir

sind kaum versucht, menschliche Fähigkeiten mit denen von Kugelschreibern, Autos oder

Social Robotics

7

Fernsehern zu vergleichen. Rechner, „Elektronengehirne“ und Computer bieten sich für solche

Projektionen offenbar in einem erheblich größeren Ausmaß an. Aus sozialwissenschaftlicher

und psychologischer Perspektive stellt sich die Frage, wie Menschen mit Maschinen umgehen,

die als Modelle oder gar Imitatoren des menschlichen Geistes und seiner mentalen Operationen

gelten können. Nehmen wir diese Geräte auf ähnliche Weise wahr, wie wir andere Menschen

wahrnehmen? Ansätze zur Unterscheidung sozialer und nichtsozialer Wahrnehmung haben die

vom Beobachter subjektiv empfundene Selbstähnlichkeit des Objekts als zentrales Kriterium

genannt (z.B. Ostrom, 1984); daher sollten wir Objekte, die wir mit uns selbst vergleichen, auch

eher als soziale Akteure auffassen. Diese kurzen diskursgeschichtlichen Überlegungen zeigen,

dass es lohnenswert ist, sich mit der Mensch-Computer-Interaktion (MCI) sowie der Mensch-

Roboter-Interaktion (MRI) auch aus (sozial-)psychologischer Sicht zu beschäftigen.

COMPUTER UND ROBOTER: VERSCHIEDENE ARTEN VON MASCHINEN

Roboter zeichnen sich gegenüber herkömmlichen Computern, deren

Funktionstüchtigkeit an eine technische Peripherie (z. B. Eingabegeräte) gebunden ist, vor

allem durch den Grad der physischen Autonomie bzw. des Embodiments aus (Fong et al., 2003;

Kiesler & Hinds, 2004; Krämer & Bente, 2002). Physische Autonomie beschreibt die Fähigkeit

von Robotern, Veränderungen der Umwelt festzustellen und auf diese selbstgesteuert zu

reagieren, so dass das Verhältnis von Roboter zu Umwelt aktiv verändert wird (vgl. Thrun,

2004, S. 14). Als Hauptzweck autonomer Roboter galt lange Zeit die Durchführung spezieller

technischer Aufgaben in für Menschen unzugänglichen oder gefährlichen Umgebungen, wie

etwa die Inspektion von Ölquellen,Minenräumung oder die Exploration fremder

Himmelskörper (Breazeal, 2003a). Bei solchen Einsätzen war die Interaktion mit Menschen

zweitrangig oder gar nicht vorgesehen. Die Erweiterungen des Einsatzgebiets autonomer

Roboter auf Tätigkeiten im Alltag erfordern jedoch einen direkten Kontakt undKommunikation

mit Menschen. So ist in der entsprechenden Forschungsliteratur zunehmend von sozialen

Robotern die Rede (z. B. Breazeal, 2002, 2003b; Dautenhahn & Billard, 1999; Fong et al.,

2003).

Ob und wie komplexe interaktive und soziale Fähigkeiten technisch realisiert werden

können, ist eine wichtige Frage an der Schnittstelle von theoretischer und angewandter Infor

atik, Robotik, Neuro- bzw. Kognitionswissenschaften und Philosophie des Geistes. Aus

sozialpsychologischer Sicht sind jedoch die objektiven Fähigkeiten des Roboters, die ihn als

„sozial“ auszeichnen, von geringerem Interesse als die subjektive Bereitschaft von Personen,

einen Roboter als sozialen Interaktionspartner aufzufassen. Diese Unterscheidung entspricht

Social Robotics

8

einer Differenzierung zweier verschiedener Designzugänge (Fong et al., 2003). Ein biologisch

orientierter Zugang versucht Roboter zu erschaffen, deren interne Architektur die

Informationsverarbeitung bzw. mentalen Prozesse von Menschen (zumindest Lebewesen)

simuliert. Hingegen setzt sich ein funktional orientierter Zugang das Ziel, Roboter so zu

gestalten, dassMenschen diese als sozialeAkteure akzeptieren und entsprechend behandeln –

auch wenn die interne Architektur derMaschine diese Annahmen nicht rechtfertigt (Fong et al.,

2003). Um das biologisch orientierte Designziel zu erreichen, sind Erkenntnisse

ausAllgemeiner Psychologie, Entwicklungspsychologie (insbesondere der Theory-of-Mind-

Forschung; Scassellati, 2002), Kognitionswissenschaft oder Neurobiologie erforderlich. Um

den funktional orientierten Zugang zu realisieren, sind indes v. a. Erkenntnisse aus der

Sozialpsychologie hilfreich, also etwa Befunde zu Personenwahrnehmung, Eindrucksbildung,

Attribution, Interaktionsprozessen undKooperation.Ummögliche Untersuchungsthemen und -

ansätze weiter zu konkretisieren, skizzieren wir im nächsten Abschnitt überblicksartig

sozialpsychologisch relevante Forschungsbefunde zur MMI.

DIE SOZIALE DIMENSION DER MENSCH-MASCHINE-INTERAKTION:

SOZIALPSYCHOLOGISCH RELEVANTE FORSCHUNGSBEFUNDE

Das Hauptinteresse technisch-anwendungsbezogener Forschung und Entwicklung zur

MMI richtet sich auf die Dienstleistungs- oder Werkzeugfunktion rechnerbasierter

Technologien. Im Vordergrund steht die viel beschworene „Benutzerfreundlichkeit“, die einer

effektiven Realisierung von Zielen des Menschen dienen sollte; die Rolle sozialer Faktoren der

MMI fand in Informatik, Technik und Ingenieurwissenschaft hingegen vergleichsweise wenig

Beachtung. Interessanterweise wurde aber in der Psychologie und den Sozialwissenschaften

bereits vor der massenhaften Verbreitung der Technik auf deren soziale Implikationen und

Effekte hingewiesen (z.B. Caporael & Thorngate, 1984). In einer frühen Untersuchung zur

sozialen Dimension der Mensch-Computer-Interaktion fanden Scheibe und Erwin (1979)

Belege für eine Personifizierung von Computern. Spontane Äußerungen der studentischen

Versuchspersonen (Vpn) bei einem einfachen Strategiespiel gegen einen aus heutiger Sicht

antiken DEC-10 Computer belegten eine deutliche Tendenz zur Anthropomorphisierung der

Maschine. So bezeichneten etwa die Vpn den Computer mit Personalpronomina („du“ oder

„er“) oder dem Ausdruck „dieser Typ“ (engl. „that guy“) und waren offenbar emotional stark

involviert. Wie Scheibe und Erwin anmerken, ist dieses Verhalten vor allem deshalb

bemerkenswert, weil es keinerlei Beitrag zur erfolgreichen Aufgabenbewältigung leistete.

Deutlich wird in dieser Pionierstudie das Spannungsverhältnis zwischen einem normativ

Social Robotics

9

angemessenen, zweckrationalen Umgang mit der Maschine und den wirklich erfolgenden

sozioemotionalen Reaktionen der menschlichen AkteurInnen.

Spätestens seit Mitte der 1990er Jahre wird die Bedeutung der sozialen Dimension für

die MMI auch von InformatikerInnen und ComputeringenieurInnen erkannt. Inspiriert durch

Ansätze zur Situierten Kognition bzw. zu handlungstheoretischen Konzepten forderte

beispielsweise Carroll (1996), dass die Forschung zur MCI in einem größeren Ausmaß den

sozialen Kontext der Computernutzung, insbesondere den Einfluss von Gruppen und

Organisationsstrukturen, berücksichtigen solle (s. auch Takeuchi & Naito, 1995). Das bislang

einflussreichste und umfassendste Forschungsprogramm zur sozialen Dimension der MMI

legten Nass und Mitarbeiter/-innen vor.

Das Forschungsprogramm „Computer als soziale Akteure“

Nass und KollegInnen zufolge (Nass & Moon, 2000; Nass, Moon, Morkes, Kim &

Fogg, 1997; Nass, Steuer, Henriksen & Dryer, 1994; Reeves & Nass, 1996) reagieren

menschliche User auf Computer, als seien diese eigenständige soziale Akteure (Computers As

Social Actors, abgekürzt CASA). Ihre drei Hauptthesen lauten: (1) Menschen verhalten sich in

Begegnungen mit Computern so wie in Begegnungen mit anderen Menschen, sie folgen dabei

den Regeln und Heuristiken, die ihrer Interaktion mit Menschen zugrunde liegen; das heißt,

Menschen zeigen Computern gegenüber sozusagen soziales Verhalten. (2) Personen sind sich

des sozialen Charakters ihres Verhaltens gegenüber Computern nicht bewusst; ihre Reaktionen

werden automatisch ausgelöst und sind „gedankenlos“ (vgl. insbesondere Nass & Moon, 2000).

Der CASA-Ansatz zeichnet sich gegenüber anderen Forschungspositionen im Bereich der MMI

durch sein Bemühen um empirische, vorwiegend experimentelle Prüfung aus. In ihren Studien

bedienten sich Nass und MitarbeiterInnen in der Regel der folgenden Strategie: Ausgehend von

sozialpsychologischen Theorien und Konzepten (z.B. Eindrucksmanagement; soziale

Erleichterung bzw. Hemmung) werden Situationen hergestellt, in denen spezifische Effekte

sozialer Interaktion zwischen Menschen gut belegt sind. An die Stelle eines der

Interaktionspartner tritt ein Computer (genauer: ein Programm, ein embodied agent o.ä.), der

bestimmte rudimentäre Eigenschaften einer Person besitzt (z.B. ein Gesicht, eine Stimme oder

auch nur die Benutzung von Sprache als Textausgabe).

Eine Vielzahl von Studien stützt die Thesen des CASA-Ansatzes. Beispielsweise ändern

sich die Reaktionen von studentischen, überdurchschnittlich gebildeten Vpn gegenüber einem

Computer in Abhängigkeit von dessen angeblichem „Geschlecht“ (Nass, Moon & Green,

1997), dessen angeblicher „Ethnizität“ (Nass, Isbister & Lee, 2000) oder je nach Zugehörigkeit

zum selben Team wie der Computer (Nass, Fogg & Moon, 1996; vgl. aber Lee & Nass, 2002).

Social Robotics

10

In anderen Untersuchungen zeigten die CASA-Forscher/-innen, dass Vpn Computer mit ihnen

selbst ähnlichen „Persönlichkeitseigenschaften“ als attraktiver beurteilen als Computer mit

unähnlichen „Persönlichkeitseigenschaften“ (Nass, Moon, Fogg, Reeves & Dryer, 1995), dass

Vpn für Schmeichelei, d.h. ungerechtfertigte Komplimente des Computers empfänglich sind

(Fogg & Nass, 1997) oder dass sie bereit sind, intime Informationen einem Computer

preiszugeben, der ihnen zuvor analoge Informationen über „sich selbst“ mitgeteilt hat (Moon,

2000). „Soziale“ Reaktionen gegenüber Computern sind offenbar nicht auf kurzfristige,

situationsgebundene Verhaltensweisen beschränkt: So entwickelten studentische Vpn eine Art

„Loyalität“ gegenüber bestimmten Computerterminals in einem Rechenzentrum (Sundar,

2004), was der Autor als Hinweis auf die Bildung längerfristiger sozialer Beziehungen wertet.

Bemerkenswert ist, dass die Vpn der CASAStudien in postexperimentellen Befragungen

jegliche Anthropomorphisierung der Maschine bestritten. In offenen Selbstberichten beharrten

die meisten TeilnehmerInnen darauf, dass sie sich gegenüber Computern niemals sozial

verhalten würden und solches Verhalten als völlig unangemessen empfänden. Nachbefragungen

ergaben zudem keinen Hinweis darauf, dass die Vpn während der Interaktion mit dem

Computer an eine/n Programmierer/in oder irgendeinen anderen „Menschen hinter der

Maschine“ gedacht hatten (vgl. auch Sundar & Nass, 2000).

Eine Schlüsselstudie aus der CASA-Arbeitsgruppe zeigte, dass Vpn im Umgang mit

Computern Regeln der Höflichkeit berücksichtigen, also Verhaltensmaßstäbe aus der Mensch-

Mensch-Kommunikation anlegen. Nass, Moon und Carney (1999) ließen Studierende mit

einem Lernprogramm (Computer-Tutor) interagieren, das ihnen Faktenwissen vermitteln sollte.

Das Programm kommunizierte über ein reines Textinterface nach einem vollständig

festgelegten Ablauf mit den Vpn, die jedoch davon ausgingen, die Rückmeldung des

Computers sei auf ihren Lernfortschritt zugeschnitten. Die zentrale abhängige Variable war die

Bewertung des computerbasierten Tutors durch die Vpn, die in drei experimentellen

Bedingungen erfolgte: (1) Interview durch denselben Computer-Tutor, (2) Interview durch

einen anderen Computer-Tutor und (3) Papier- und Bleistift-Fragebogen. Es zeigte sich, dass

die Vpn in Bedingung (1) im Vergleich zu den beiden anderen Bedingungen den Computer

positiver beurteilten, und dass ihre Urteile eine geringere Varianz aufwiesen. Nass et al. (1996)

interpretierten dieses Ergebnis als Beleg für ihre CASA-Position: Ebenso wie Vpn bei der

Beantwortung von Fragen eines menschlichen Interviewers häufig soziale Normen

berücksichtigen, darunter auch Höflichkeitsregeln, so verhielten sich offenbar auch die Vpn in

der Studie höflich gegenüber dem Computer, mit dem sie zuvor eine gemeinsame Aufgabe

bearbeitet hatten.

Social Robotics

11

Die erwähnten Befunde stimmen insgesamt auf beeindruckende Weise mit der ersten

CASA-These überein. Dass psychologische Prinzipien aus der Mensch-Mensch-Interaktion in

der MCI zu finden sind, belegen auch Arbeiten, die außerhalb der Gruppe um Nass

durchgeführt wurden (vgl. Krämer, in Druck; Krämer & Bente, 2002). Ausgehend von Theorien

der sozialen Erleichterung bzw. Hemmung (z.B. Zajonc, 1965) untersuchten etwa Rickenberg

und Reeves (2000), ob die Anwesenheit eines animierten Agenten auf dem Bildschirm (dem

Albert Einstein ähnelnden Microsoft-Helfer „Genius“ nachempfunden) bei komplexen

Aufgaben zu Ängstlichkeit und Leistungsbeeinträchtigungen führt – vor allem wenn das

Verhalten der Figur suggeriert, dass sie die Person „überwacht“. Die Vpn in dieser Studie

bearbeiteten Aufgaben im Internet Explorer (z.B. Informationssuche), während der animierte

„Einstein“ sich entweder passiv verhielt (liest, kratzt sich am Kopf...) oder die Vp überwachte

(nimmt Blickkontakt auf, schreibt mit). Die Ergebnisse stimmten mit der These zur sozialen

Hemmung überein: Die Vpn gaben beim überwachenden Agenten erhöhte Ängstlichkeit an und

erbrachten schlechtere Leistungen bei der Aufgabenbearbeitung. Kritisch ist anzumerken, dass

die Leistungseinbußen in der Überwachungsbedingung auch durch die größere und variablere

Aktivität der animierten Figur und eine dadurch bewirkte Ablenkung der Vpn bedingt sein

könnten.

Die zweite These des CASA-Ansatzes schließlich ist aus sozialpsychologischer Sicht

insofern interessant, als sie die Prozesse spezifiziert, die soziale Reaktionen auf Computer

vermitteln. Nach Nass und Kollegen/-innen belegen die Divergenzen zwischen den starken

Hinweisen auf soziales Verhalten in der Interaktion mit dem Computer und der explizit

geäußerten Zurückweisung eines sozialen Umgangs mit Computern durch die Vpn in

nachträglichen Befragungen, dass die sozialen Verhaltensweisen gegenüber Computern

automatisch und „gedankenlos“ (Langer, 1989) erfolgen. Nass und MitarbeiterInnen

argumentieren, dass in ihren Studien die Kriterien für gedankenloses Verhalten nach Langer –

also „blindes“ Vertrauen auf erworbene Schemata oder wiederholt durchgeführte, überlernte

Reaktionen – erfüllt waren (Nass & Moon, 2000; vgl. auch Johnson, Gardner & Wiles, 2004).

Beispielsweise wendeten die Vpn in einigen Studien offenbar auf rigide Weise soziale

Kategorien wie Ethnizität (Nass et al., 2000) oder Geschlecht (Nass et al., 1997) auf den

Computer an. In anderen Studien aktivierten die Vpn vertraute soziale Verhaltensroutinen wie

etwa Höflichkeit (Nass et al., 1999) im Umgang mit dem Computer.

Dass die Belege für automatisch-gedankenloses Verhalten auf nachträglichen

Selbstberichten der Vpn beruhen, ist sicherlich als problematisch zu werten. Denn

Selbstauskünfte von Vpn über ihr Verhalten und Denken sind aus verschiedenen Gründen

Social Robotics

12

problematisch (z.B. Nisbett & Wilson, 1977), etwa aufgrund von mangelnder

Auskunftsbereitschaft oder -fähigkeit, sozial erwünschtem Antwortverhalten oder der zeitlichen

Verzögerung zwischen interessierendem Prozess und Abfrage, die prinzipiell dazu führen kann,

dass relevante Erfahrungen vergessen werden. Deshalb ist es ratsam, die bisher angenommene

Diskrepanz zwischen expliziter Verneinung eines sozialen Umgangs und der impliziten

Anerkennung des Computers als Sozialpartner mit Hilfe alternativer Methoden, beispielsweise

Online-Indikatoren für mentale Repräsentationen des Computers, strenger zu prüfen.

Wie Menschen Maschinen wahrnehmen:

Menschenähnlichkeit als unabhängige und abhängige Variable

Der CASA-Ansatz geht davon aus, dass Maschinen auch bei einem geringen Grad an

Menschenähnlichkeit oftmals wie menschliche Interaktionspartner behandelt werden. Jedoch

wird vermutet, dass die Implementierung zusätzlicher menschenähnlicher Merkmale (z.B. eines

personalisierten Interfaces) die Bereitschaft verstärkt, solche Verhaltensweisen gegenüber

Maschinen zu zeigen (Nass, 2004; Nass & Moon, 2000; vgl. Duffy, 2003; Krämer & Bente,

2002). Erstens stellt sich hier also die Frage, welche Folgen das Ausmaß an

Menschenähnlichkeit einer Maschine auf die MMI, zumal auf die Reaktionen des Menschen

hat, also etwa auf Wahrnehmung, Bewertungen und Einstellungen, Attributionen, Emotionen

oder Interaktionsverhalten. Aus methodischer Sicht ist Menschenähnlichkeit hiermit als

unabhängige Variable (UV) angesprochen, die Effekte auf die MMI sowie weitere Erlebens-,

Denk- und Verhaltensparameter haben kann.

Nass und KollegInnen haben wiederholt mögliche Cues vorgeschlagen, die den

Eindruck der Menschenähnlichkeit einer Maschine verstärken könnten, etwa Sprachbenutzung,

Display eines Gesichts, Manifestation von Emotionen, Interaktivität oder Rollenübernahme

(Nass, 2004; Nass et al., 1994). Zweitens stellt sich daher die Frage, von welchen Faktoren die

Menschenähnlichkeit einer Maschine abhängt. In methodischer Terminologie wird

Menschenähnlichkeit hiermit als abhängige Variable (AV) thematisiert, die als Wirkung

anderer Faktoren zu betrachten ist. Die Ausprägung dieser AV kann zum einen natürlich durch

Befragung erhoben werden. Zum anderen liegen auch indirekte Maße für die empfundene

Menschenähnlichkeit vor, die von der Selbstauskunft durch die Vpn unabhängig sind. Die

Studien zum CASA-Ansatz (z.B. Nass & Moon, 2000; Reeves & Nass, 1996) haben bestimmte

Reaktionen (z.B. höfliches Verhalten) von Vpn als Indikatoren für die Akzeptanz einer

Maschine als menschenähnlich eingesetzt. Weitere indirekte Indikatoren für wahrgenommene

Menschenähnlichkeit sind elementare Verhaltensmaße wie visuelle Habituation bei der

Social Robotics

13

Beobachtung von Objekten (v.a. bei Studien mit vorsprachlichen Kindern; Gergely, Nádasdy,

Csibra & Bíró, 1995) oder physiologische Maße wie etwa durch Bildgebung erfasste neuronale

Aktivierungen, die für die Repräsentation anderer Menschen charakteristisch sind oder

typischerweise in der Mensch-Mensch-Interaktion auftreten (z.B. Blakemore, Winston & Frith,

2004). All diese Maße können prinzipiell Auskunft über eine Anthropomorphisierung von

Computern oder Robotern durch Menschen geben.

Menschenähnlichkeit als unabhängige Variable: Erleichterung der Mensch-Maschine-

Interaktion und Erkenntnisse aus dem „Uncanny Valley“

Vielen Ansätzen in Design und Entwicklung von virtuellen Agenten und Robotern liegt

die Annahme zugrunde, dass menschenähnliches Aussehen und Verhalten der Maschine die

Interaktion mit dem Menschen erleichtert oder gar erst ermöglicht (z.B. Cappella & Pelachaud,

2002; Takeuchi & Naito, 1995; vgl. Duffy, 2003). Dieser Annahme zufolge werden Maschinen

mit zunehmender Menschenähnlichkeit als Interaktionspartner für Menschen auch zunehmend

attraktiv oder akzeptabel. In der Tat scheinen bestimmte menschenähnliche Merkmale eines

Roboters den Beginn einer Interaktion mit Menschen zu erleichtern. Bruce, Nourbaksh und

Simmons (2001) untersuchten, ob Personen eher bereit sind, sich auf eine kurze Interaktion mit

einem autonomen Roboter einzulassen, wenn dieser ein menschliches Gesicht besitzt (versus

kein menschliches Gesicht besitzt; erste UV) bzw. wenn der Roboter seinen „Kopf“ (ein

beweglicher Flachbildschirm) auf potentielle Interaktionspartner ausrichtet (versus keine solche

Geste ausführt; zweite UV). Der Roboter sollte im belebten Flur einer Universität PassantInnen

durch Ansprechen zur Teilnahme an einer kurzen Umfrage gewinnen. Die Ausrichtung des

„Kopfs“ erfolgte durch Drehen und Kippen des Flachbildschirms, der das animierte Gesicht

einer jungen Frau zeigte. Es zeigte sich, dass Personen häufiger stehen blieben, wenn der

Roboter seinen Kopf auf sie ausrichtete, als wenn er das nicht tat. Sie blieben außerdem

häufiger stehen, wenn der Roboter ein Gesicht hatte, als wenn er keines hatte.

Andere Ansätze zu sozial-interaktiven Robotern wecken jedoch Zweifel an der

Auffassung, zunehmende Menschenähnlichkeit der Maschine habe generell positive Effekte auf

die MMI bzw. die Wahrnehmung der Maschine durch Menschen (Fong et al., 2003). Von dem

japanischen Robotiker Masahiro Mori (z.B. 1982) stammt die These des „Uncanny Valley“ (dt.

etwa „Tal des Unheimlichen“), derzufolge Menschen auf zunehmend anthropomorphe Roboter

zwar prinzipiell mit zunehmend positiven Gefühlen reagieren, wohingegen ein nahezu, aber

nicht völlig anthropomorpher Roboter jedoch großes Unbehagen und negative Reaktionen

auslöst. Erst wenn dieser Bereich des „Unheimlichen“ bei perfekter Annäherung an das

Social Robotics

14

menschliche Erscheinungsbild wieder verlassen wird, steigt die empfundene Sympathie oder

Attraktivität wieder sprunghaft an (s. Abb. 1). Eine mögliche (sozial-) psychologische

Erklärung für den Effekt des „Uncanny Valley“ könnte lauten, dass der Grad der

Schemaabweichung bei einem sehr menschenähnlichen Stimulusobjekt nicht ausreicht, um die

Aktivierung eines alternativen Schemas auszulösen. Diese geringfügige Abweichung könnte

eine Spannung, ein Inkongruenz-Gefühl erzeugen, das zunächst nicht durch einen

Schemawechsel reduziert werden kann. Im Unterschied zu einer Kippfigur gibt es hier nicht

zwei distinkte Wahrnehmungszustände, die auf der Aktivierung des einen oder des anderen

Konzepts bzw. Schemas basieren. Das Schema „Mensch“ oder „menschlicher

Interaktionspartner“ ist zwar stark aktiviert; das Wahrnehmungsobjekt kann jedoch nicht

vollständig an dieses Schema assimiliert werden, ohne dass sich ein anderes, passenderes

Schema zur Verarbeitung anbietet.

Wenn der funktionale Zusammenhang zwischen Menschenähnlichkeit und der Valenz

menschlicher Reaktionen in der Tat nicht monoton steigend ist, so ist es nicht ratsam, bei der

Gestaltung von Robotern der simplen Maxime „je menschenähnlicher, desto besser“ zu folgen.

Diese spannende Problematik klingt in einigen aktuelleren Arbeiten an (DiSalvo, Gemperle,

Forlizzi & Kiesler, 2002; Kiesler, Sproull, & Waters, 1996; Woods, Dautenhahn & Schulz,

2004). Jedoch liegen noch keine experimentell zureichend kontrollierten Untersuchungen vor,

die eine differenzierte Einschätzung der Gültigkeit bzw. des Geltungsbereichs der

divergierenden Thesen zur Zweckmäßigkeit von Humanidealen erlauben.

Die Überlegungen zum „Uncanny Valley“ haben ExpertInnen aus Informatik und

Robotik dazu veranlasst, die Effekte von Menschenähnlichkeit und humanoidem Design

differenzierter zu betrachten (z.B. Duffy, 2003; Goetz, Kiesler & Powers, 2003; Hinds, Roberts

& Jones, 2004). In diesem Zusammenhang haben Goetz et al. die Passungshypothese (matching

hypothesis) formuliert, derzufolge die Mensch-Roboter-Interaktion um so erfolgreicher verläuft,

je besser das äußere Erscheinungsbild und das Verhalten eines sozialen Roboters mit der

Erwartung des Users bzw. der Rolle und Aufgabe des Roboters übereinstimmen. Das Ziel des

Designs sozialer Roboter besteht demnach nicht einfach darin, die Menschenähnlichkeit des

Roboters immer weiter zu perfektionieren, sondern auf die Erwartungen des Menschen und die

Interaktionserfordernisse abzustimmen. In einer ihrer empirischen Studien überprüften Goetz et

al. (2003) die Hypothese, dass Vpn bei alltagsnahen sozialen Aufgaben (z.B. Tanzunterricht)

menschenähnliche Roboter präferieren, bei weniger sozialen Aufgaben (z.B.

Nachtwächtertätigkeit) eher maschinenähnliche Roboter. Die Vpn sollten in einer Serie von

Paarvergleichen aus den Robotern in Abbildung 2 jeweils diejenigen auswählen, die für

Social Robotics

15

verschiedene Jobs geeignet wären („Alter“ und „Geschlecht“ der Roboter dienten vorwiegend

dem Zweck der Stimulusreplikation). Die Resultate stützen die Passungshypothese, d.h. die

Vpn wählten für die stark interaktiven, sozialen Aufgaben eher die menschenähnliche Roboter,

für die weniger sozialen Aufgaben hingegen eher die maschinenähnlichen Roboter. In einer

weiteren Studie interagierten Vpn mit einem Roboter, der sie entweder bei Fitness-Übungen

anleiten sollte (ernsthafte Aufgabe) oder mit ihnen Rezepte für Jellybeans erfinden sollte

(spielerische Aufgabe). Der Roboter verhielt sich bei der Aufgabenbearbeitung eher ernsthaft

(sprach z.B. sachlich-nüchtern) oder eher spielerisch (machte Scherze, betonte den Spaß an der

Aufgabe). Es zeigte sich, dass die Vpn bei einer Passung zwischen dem Verhaltensstil des

Roboters und der Art der Aufgabe länger mit ihm interagierten.

Die Befunde von Goetz et al. (2003), vor allem die Effekte auf Verhaltensmaße,

widersprechen der These, dass zunehmende Menschenähnlichkeit generell zu größerer

Akzeptanz oder Kooperation der User führt. Für anwendungs- und designorientierte Ansätze ist

sicherlich die These bedenkenswert, dass Roboter und andere künstliche Agenten, die mit

Menschen bei der Aufgabenbearbeitung interagieren, durch ihre Merkmale (z.B. angemessener

Grad an Produkthaftigkeit, Maschinenähnlichkeit oder Künstlichkeit) dem Menschen

realistische Hinweise auf ihre Kompetenzen geben sollten. Weitere Studien sind

wünschenswert, um die Rahmenbedingungen für die Implementierung eines

menschenähnlichen Aussehens und Verhaltens von Robotern und anderen künstlichen

Interaktionspartnern des Menschen zu identifizieren. Zukünftige Forschung sollte neben den

Bedingungen für die positive Wirkung von Menschenähnlichkeit auch die abhängigen

Variablen konzeptuell differenzieren, auf denen sich diese Effekte zeigen können. Es ist

beispielsweise denkbar, dass Menschenähnlichkeit auf explizite Selbstauskünfte (z.B.

Einstellungsratings) nicht die gleiche Wirkung ausübt wie auf Verhaltensmaße (z.B.

Zuwendung von Aufmerksamkeit, Dauer der Interaktion).

Menschenähnlichkeit als abhängige Variable: Faktoren und Bedingungen der

Anthropomorphisierung

In der sozial-, entwicklungs- und kognitionspsychologischen Literatur sind mögliche

Faktoren expliziert worden, die Wahrnehmungsobjekte als lebendig, menschenähnlich und

sozial erscheinen lassen (z.B. Baron-Cohen, 1995; Bretherton, McNew & Beeghly-Smith,

1981; Gelman & Spelke, 1981; Heider, 1958; Ostrom, 1984). Objekte werden z.B. tendenziell

dann als Lebewesen wahrgenommen, wenn sich ihre physische Erscheinung unabhängig von

externen Kräften verändert (Heider, 1958; Ostrom, 1984), sie sich selbstständig fortbewegen

Social Robotics

16

können (Baron-Cohen, 1995; Berry, Misovich, Kean & Baron, 1992; Scholl & Tremoulet,

2000) oder sie eigenständige Richtungs- und Geschwindigkeitsänderungen (Tremoulet &

Feldman, 2000) vornehmen. Wie die klassischen Studien von Heider und Simmel (1944) und

Michotte (1963) nahelegen, kann die Wahrnehmung, ein Objekt habe eigene Ziele und

Intentionen, schon bei bestimmten Bewegungskonstellationen einfacher geometrischer Figuren

erfolgen. Kinder interpretieren solche Formen als intentionale Agenten, wenn diese simple

Bewegungsmuster zeigen, wie etwa die scheinbare „Überwindung“ eines Hindernisses (Gergely

et al., 1995).

Der Eindruck, dass es sich bei einem Stimulusobjekt um einen anderen Menschen oder

ein menschenähnliches Lebewesen handelt, kann außerdem durch die Wahrnehmung ausgelöst

werden, das Objekt verfüge über Augen bzw. ein Gesicht (Baron-Cohen, 1995; vgl. Scassellati,

2002). Bekanntlich sind Menschen aufgrund ihrer neuronalen Ausstattung darauf spezialisiert,

komplexe Reizkonstellationen außerordentlich schnell als Gesichter wahrzunehmen und dabei

sozial relevante Schlüsse zu ziehen (Adolphs, 2003; Cole, 1999). Daher sollten visuell

wahrnehmbare Merkmalsmuster, die als Gesichter interpretierbar sind, besonders wirksame

Hinweisreize darstellen, aus denen auf die Menschenähnlichkeit einer Maschine geschlossen

werden kann.

Dass die Unterscheidung menschlicher und nichtmenschlicher Reizmuster bereits auf

einer elementaren neuronalen Verarbeitungsebene erfolgen kann, zeigen auch interessante neue

Befunde zur motorischen Interferenz bei der Beobachtung fremder Bewegungen. In einem

Experiment von Kilner, Paulignan und Blakemore (2003) bewegten Vpn ihren rechten Arm in

horizontaler oder vertikaler Richtung, während sie einen anderen Menschen oder einen Roboter

beobachteten, der eine kongruente oder inkongruente Armbewegung ausführte. Während die

Beobachtung einer inkongruenten Bewegung des anderen Menschen mit der Durchführung der

eigenen Bewegung interferierte (gemessen an der Varianz der eigenen Bewegungen), trat bei

der Beobachtung des bewegten Roboterarms keine Interferenz auf. Dieser Befund gibt zu der

Vermutung Anlass, dass bereits auf einer tiefliegenden perzeptuell-motorischen

Verarbeitungsebene Hinweise auf die „Menschlichkeit“ von eingehenden

Stimulusinformationen extrahiert werden.

Im Zusammenhang mit der Erforschung der MMI sind hier zwei Aspekte

hervorzuheben. Erstens unterscheiden sich autonome Roboter von anderen

informationsverarbeitenden Maschinen wie etwa herkömmlichen Computern in der Art der

Reize, durch die sei bei menschlichen Beobachterinnen die Wahrnehmung von

Menschenähnlichkeit auslösen können. Da autonome Roboter sich eigenständig bewegen,

Social Robotics

17

können sie in einem größeren Ausmaß als herkömmliche Computer potentiell die gerade

skizzierten Attributionen von Lebendigkeit, Intentionalität und Menschenähnlichkeit auslösen.

Zweitens sollten sowohl Computeragenten als auch Roboter als menschenähnlicher erscheinen,

wenn sie über ein Gesichtsdisplay verfügen. In der Tat werden Computer mit einem Gesichts-

Interface offenbar eher wie menschliche Interaktionspartner behandelt (Sproull, Subramani,

Kiesler, Walker & Waters, 1996; Takeuchi & Naito, 1995; Walker, Sproul & Subramani, 1994;

vgl. aber Kiesler et al., 1996). Zudem trägt das Display eines Gesichts offenbar entscheidend

dazu bei, dass Menschen Roboter als mehr oder weniger menschenähnlich wahrnehmen

(DiSalvo et al., 2002).

Die aufgrund von Bewegungsmustern oder Gesichtsstimuli erfolgende Wahrnehmung

von Lebendigkeit und Menschenähnlichkeit hat vermutlich distinkte Merkmale, durch die sie

sich von anderen, auf höheren Inferenzprozessen beruhenden Arten der Anthropomorphisierung

(wie etwa in den CASA-Studien) unterscheidet. Sie lässt sich kaum willkürlich kontrollieren

oder unterdrücken; d.h. sie zwingt sich der Betrachterin sozusagen auf. In der Terminologie von

Fodor (1983) scheint es sich hier um modulare, von anderen Prozessen unabhängige und

autonom gesteuerte Wahrnehmungsvorgänge (encapsulated processes) zu handeln. So wie es

uns nicht gelingt, die Müller-Lyersche Pfeiltäuschung trotz besseren Wissens in ihrer

Wahrnehmung zu unterdrücken, so können wir uns vermutlich auch entgegen unserer

bewussten Einsicht in die Künstlichkeit von Maschinen kaum dagegen wehren, Maschinen mit

bestimmten Merkmalen wie Gesicht oder Bewegungsfähigkeit als lebendig und sogar

menschenähnlich wahrzunehmen (vgl. Scholl & Tremoulet, 2000).

Parallel zu den elementaren, schnellen und teilweise autonomen Perzeptionsprozessen

können demnach auch „höhere“ Inferenz- und Denkprozesse stattfinden, aus denen sich

Repräsentationen eines Roboters oder Computers ergeben. Im Unterschied zu den schnellen

und momenthaften Perzeptionsprozessen nehmen diese höheren Prozesse verstärkt auf

vorliegende Wissensbestände, Schemata und Überzeugungen Bezug. So bilden Menschen, wie

aktuelle Studien von Lee, Kiesler, Lau und Chiu (2005) zeigen, aufgrund ihrer Wissensbestände

und Erfahrungen auch mentale Repräsentationen von Robotern und deren Kompetenzen. Wie

Ostrom (1984) darlegt, sollte eine Person ein Objekt zudem dann als lebendig oder gar

menschenähnlich wahrnehmen, wenn sie aufgrund ihrer Erfahrungen annimmt, dass das Objekt

potentiell auf selbstrelevante Ereignisse Einfluss nehmen und damit auch Affekte bei ihr

auslösen kann. Objekte wirken demnach umso sozialer und damit menschenähnlicher, je mehr

Kontrolle ein/e Beobachter/in ihnen über sein/ihr eigenes Verhalten und Erleben zuspricht.

Wie oben dargelegt, nehmen die CASA-ForscherInnen um Nass (z.B. Nass & Moon,

Social Robotics

18

2000) an, dass die Behandlung einer Maschine als Sozialpartnerin eine Verhaltenweise

darstellt, die automatisch und spontan aufgrund bestehender Schemata zur Mensch-Mensch-

Interaktion erfolgt. Jedoch bestreiten die Vpn in den CASA-Untersuchungen bei expliziter

Befragung jegliche Anthropomorphisierung. Das Ergebnis spontaner Inferenzprozesse kann

also beträchtlich von dem Ergebnis eher reflektierter oder elaborierter Inferenzen abweichen.

Jenseits der durch elementare Perzeptionsprozessen erzwungenen Anthropomorphisierung kann

daher zwischen eher automatischen, spontanen Inferenzprozessen auf der einen Seite und

reflektierten, bewusst elaborierten Inferenzen auf der anderen Seite unterschieden werden.

Während die von der CASA-Gruppe erhobenen Reaktionen gegenüber Computern als implizite

Maße für anthropomorphisierende Repräsentationen dienen können, wird durch eine offene

Befragung der Vpn eher das Ausmaß expliziter Anthropomorphisierung erfasst. Implizite und

explizite Anthropomorphisierung können dabei durchaus voneinander dissoziiert sein.

Abschließend ist somit festzuhalten, dass eine Anthropomorphisierung von Maschinen durch

verschiedene Faktoren ausgelöst werden kann, dass dabei verschiedene Prozesse

ausschlagebend sein können und dass je nach Art des Prozesses unterschiedliche Maße und

Methoden zur Erfassung erforderlich sind.

AUSBLICK: PERSPEKTIVEN FÜR SOZIALPSYCHOLOGISCHE

FORSCHUNG ZUR MMI

Abschließend möchten wir mögliche Themen für die sozialpsychologische Forschung

zur MMI vorstellen, die aus unserer Sicht als besonders lohnenswert erscheinen. Diese lassen

sich drei klassischen Bereichen sozialpsychologischer Forschung zuordnen: (1) Urteilsprozesse

im sozialen Kontext, (2) Interpersonelle Wahrnehmung und Interaktion, und (3)

Intergruppenbeziehungen.

Urteilsprozesse im Kontext der Mensch-Maschine-Interaktion

Forschung zur Nutzung kognitiver Heuristiken hat am Beispiel der

Basisratenunterschätzung gezeigt, dass Menschen eher in der Interaktion mit einem anderen

Menschen als in der Interaktion mit nicht-menschlichen Akteuren (Computern) irrationale

Entscheidungen fällen, d.h. Entscheidungen, die von einem normativ-logischen Standpunkt aus

defizitär oder unangemessen sind (Schwarz, Strack, Hilton & Naderer, 1991). Tversky und

Kahneman (1974) zeigten in einer klassischen Studie, dass Menschen bei

Wahrscheinlichkeitsurteilen nur in unzureichendem Maß Informationen zur Basisrate verwerten

und (eigentlich irrelevante) Einzelfallinformationen überbewerten. Die Vpn sollten die

Social Robotics

19

Wahrscheinlichkeit einschätzen, dass es sich bei einer zufällig aus einer Gruppe ausgewählten

Person um einen Ingenieur oder Rechtsanwalt handelt. Alle Vpn erhielten Informationen zur

Basisrate, d.h. zum Anteil von Ingenieuren und Rechtsanwälten in der Gruppe (z.B. 70%

Rechtsanwälte). Vpn, die ein individuelles Persönlichkeitsprofil zur Zielperson erhielten,

welches repräsentativ für eine der beiden Berufsgruppen war, berücksichtigten im Vergleich zu

einer Kontrollgruppe, die kein solches Einzelfallprofil erhielt, die Basisrate in einem geringeren

(und normativ zu geringen) Ausmaß bei ihrenWahrscheinlichkeitsurteilen zugunsten der

individuellen Persönlichkeitsdarstellung.

Schwarz et al. (1991) untersuchten, ob diese scheinbare Irrationalität auf die

differentielle Anwendung von Konversationsregeln und -maximen zurückzuführen ist, die dem

Vollzug von Kommunikation zugrunde liegen. Diesen Konversationsmaximen zufolge gehen

AdressatInnen in der Regel davon aus, dass KommunikatorInnen Mitteilungen so formulieren,

dass diese wahrheitsgemäß, aktuell relevant und informativ sind (Grice, 1975). Schwarz et al.

teilten Vpn in einer Bedingung mit, die Einzelfallinformationen seien per Zufall von einem

Computerprogramm ausgewählt worden. In diesem Fall nutzten die Vpn die

Basisrateninformation in größerem Ausmaß als Vpn in einer Bedingung, in der die

Einzelfallinformation angeblich von ForscherInnen zusammengestellt worden war. Diese Form

einer heuristischen Urteilsverzerrung ist also offenbar an die Annahme gebunden, dass der

Interaktionspartner die Einzelfallinformationen intentional zur Formulierung einer relevanten

Mitteilung selegiert hat. Unter dieser Prämisse zeigt das Vorliegen des Basisratenfehlers an,

dass Menschen ihren Interaktionspartnern Intentionen zuschreiben.

Die Befunde von Schwarz et al. (1991) legen den Schluss nahe, dass eine zu ausgeprägte

Menschenähnlichkeit künstlicher Interaktionspartner zu suboptimaler Informationsverarbeitung

und Urteilsbildung auf der Seite des Menschen führen könnte. Zukünftige Forschung sollte die

Situations- und Kontextbedingungen spezifizieren, unter denen größere Menschenähnlichkeit

von künstlichen Agenten und Robotern zu einer verbesserten Nutzung von Informationen durch

den Menschen führt. Von den so gewonnenen Erkenntnissen könnte auch die technische und

ingenieurwissenschaftliche Seite des Roboter- und Computerdesigns profitieren. Zugleich

könnte eine Analyse derjenigen Merkmale von Robotern, die menschliche Interaktionspartner

zur Vernachlässigung der Basisrate verleiten, Aufschluss über die Bedingungen liefern, unter

denen Menschen den künstlichen Agenten eine Form von Intentionalität zubilligen.

Roboter als Interaktionspartner: „Interpersonelle“ Prozesse

Bislang ist ungeklärt, ob das von Nass und KollegInnen (z.B. Nass & Moon, 2000)

Social Robotics

20

festgestellte automatische Sozialverhalten gegenüber Computern auch durch Roboter ausgelöst

werden kann. Prinzipiell sind alle CASA-Studien auf die MRI übertragbar. Die Arbeiten aus

der Gruppe um Nass zeigen aber, dass keine komplexe Robotertechnologie notwendig zu sein

scheint, um soziale und emotionale Reaktionen bei Menschen hervorzurufen. Sehr einfache

Cues und simple Technologien sind offenbar hinreichend. Womöglich ist der Zusammenhang

zwischen Komplexität der „humanoiden“ Cues und den Verhaltenseffekten nichtlinear: Wenn

die beobachteten Effekte tatsächlich automatisch aktiviert werden, sind sie möglicherweise

schwerer zu zeigen, sobald Personen „ihren Autopiloten ausschalten“, sich also nicht mehr

automatisch und gedankenlos verhalten. Auf Computer haben Menschen nicht schon immer

routiniert oder automatisch reagiert, vor allem in der Anfangsphase der massenhaften

Verbreitung (vgl. Sproull, Kiesler & Zubrow, 1984). Beim Kontakt mit sozial-autonomen

Robotern wie Kismet (Breazeal, 2003a, 2003b), die eine neuartige Technologie darstellen, sind

sich Personen vermutlich deutlich bewusst, dass sie mit einer Maschine interagieren. Die aus

der CASA-Forschung bekannten Effekte sollten dann ausbleiben. Dies könnte sich allerdings

ändern, sobald Roboter ebenso zum Alltag gehören wie PCs und andere bekannte

Technologien.

Das Auftreten unbedachter sozialer Reaktionen sollte von gut erforschten Bedingungen

für automatische versus kontrollierte Informationsverarbeitung abhängen, also etwa

verfügbaren Verarbeitungsressourcen oder der Motivation zu angemessener und korrekter

Verarbeitung. Im Unterschied zu automatischen Verhaltensweisen würde ein kontrollierter

Umgang mit Computern die gezielte Manipulation und Steuerung (also eine aufgabenbezogene

Bedienung) von künstlichen Agenten in der Interaktion beinhalten. In diesem Fall würde das

menschliche Verhalten mit der bewussten Auffassung überstimmen, dass es sich bei

künstlichen Agenten um nützliche technische Apparate ohne menschliche

Charaktereigenschaften handelt. Beispielsweise sollten Menschen in einem kontrollierten

Modus formale Kommunikationsmöglichkeiten (etwa in der Form von Programmiersprachen

oder kalkulierten Syntaxanweisungen) gegenüber alltagssprachlichen Äußerungen („Jetzt stell

Dich nicht so an und tu, was ich Dir sage“) und Verhaltensroutinen aus dem menschlichen

Interaktionsgeschehen (Verdrehen der Augen bei Nichtverstehen) bevorzugen. Zukünftige

Forschung könnte ausgehend von bekannten Zwei-Prozess-Konzepten (Chaiken & Trope, 1999;

s.a. Bohner, Moskowitz & Chaiken, 1995) die Bedingungen untersuchen, unter denen

Menschen auf künstliche Agenten in einer eher automatischen oder eher kontrollierten Weise

reagieren.

Im Bereich der interpersonellen Prozesse in der MMI stellt das „Ultimatum Game“

Social Robotics

21

(Guth & Tietz, 1986) ein weiteres interessantes Fallbeispiel dar. Hier erhalten zwei

SpielerInnen die Chance, eine bestimmte Geldsumme zu gewinnen – aber erst, nachdem sie sie

untereinander aufgeteilt haben. Den Vorschlag des „Proposers“ zur Aufteilung der Summe kann

der „Responder“ entweder annehmen oder ablehnen. Falls das Angebot abgelehnt wird, erhält

keine/r der beiden SpielerInnen eine Auszahlung. Aus der rational-normativen Perspektive der

klassischen Spieltheorie sollte der „Proposer“ den kleinstmöglichen Teilbetrag anbieten und der

„Responder“ diesen akzeptieren. Empirisch zeigt sich jedoch, dass Angebote des „Proposers“

näher bei einer „fairen“, also gleichen Aufteilung liegen und dass der „Responder“ dazu

tendiert, „unfaire“, also geringfügige Angebote zurückzuweisen. Wie eine aktuelle MCI-Studie

von Sanfey, Rilling, Aronson, Nystrom und Cohen (2003) zeigt, lehnen Vpn in der Rolle der

„Responder“ geringe, also „unfaire“ Angebote eines Computers deutlich seltener ab als

identische Angebote eines/-r menschlichen Anbieters/-in. Zudem zeigen sich in der Interaktion

mit der Maschine weniger Anzeichen der Verärgerung bei geringen Angeboten als in der

Interaktion mit einem anderen Menschen.Wie andere hier besprochene Studien zeigt auch

die Untersuchung von Sanfey et al., dass Menschen in der Interaktion mit einer Maschine aus

normativer Perspektive weniger fehlerhafte Urteile oder Entscheidungen fällen können als in

der Interaktion mit einem anderen Menschen (zur MMI im Gefangenendilemma vgl. Kiesler,

Sproull & Waters, 1996; Parise, Kiesler, Sproull & Waters, 1999).

Der Einsatz von autonomen Robotern eröffnet neue Möglichkeiten, den Grad der

Menschenähnlichkeit von künstlichen Interaktionspartnern auf verschiedensten Dimensionen zu

variieren. Welche Designmerkmale führen dazu, dass „unfaire“ Angebote eines Roboters im

„Ultimatum Game“ abgelehnt oder akzeptiert werden? Würden Menschen als „Proposer“ eher

einen Roboter als einen Menschen ausbeuten, falls sich letztere gemäß eines Rational Choice-

Modells verhalten (also auch geringfügige Angebote akzeptieren)? Variieren die emotionalen

Reaktionen, beispielsweise der Verärgerung (als „Responder“) oder der Schuld (als

„Proposer“), als Funktion des Anthropomorphisierungsgrads des robotischen

Interaktionsagenten?

Roboter als „Fremdgruppe“: Intergruppenbeziehungen zwischen Menschen und Robotern

Offenbar sind Menschen dazu bereit, Computer auf der Basis humansozialer Kategorien

wie Geschlecht oder Ethnizität zu klassifizieren (vgl. Nass & Moon, 2000). Lassen sich solche

Befunde auch in der Mensch-Roboter-Interaktion replizieren? Und unter welchen Bedingungen

bilden Menschen eine eigene soziale Kategorie für „Roboter“ als Fremdgruppe? Generell

tendieren Menschen zur Stereotypisierung von Fremdgruppen, und der Inhalt solcher

Stereotype hängt vom relativen Status und der Interdependenz zwischen den beteiligten

Social Robotics

22

Gruppen ab. Dem Stereoype-Content-Modell (Fiske, Cuddy, Glick & Xu, 2002) zufolge sind

Stereotype häufig insofern ambivalent, als sie sowohl negative als auch positive Aspekte

beinhalten: Menschen beurteilen Fremdgruppen, die als Konkurrenz zur Eigengruppe

empfunden werden und einen hohen Status haben, zugleich als hoch kompetent (positive

Valenz) und „kalt“ bzw. wenig liebenswert/sympathisch (z.B. „die Reichen“). Hingegen

werden Fremdgruppen mit eher niedrigem Status als inkompetent, aber sympathisch angesehen

(z.B. „Behinderte“). Wenn Menschen auch auf Roboter Stereotype anwenden, was ist der Inhalt

solcher Stereotype? Je nach Merkmalen oder Verhaltensweisen der Roboter könnten beide

Varianten des Stereoype-Content-Modells zutreffen: Bestimmte Klassen von Robotern (z.B.

Roboter, die v.a. der Umsetzung schwieriger technischer Aufgaben dienen) die könnten als

hochgradig kompetent (wenn auch nur in Bezug auf ein umgrenztes Aufgabengebiet), aber

zugleich kalt und unsympathisch wahrgenommen werden. Andere Arten von Computern (z.B.

SONYs Roboterhund Aibo) könnten Menschen hingegen als sympathisch und liebenswert

empfinden, ihnen zugleich aber nur geringe Kompetenz zusprechen.

Wenn sich solche Intergruppenwahrnehmungen empirisch bestätigen lassen, wie prägen

sie die Mensch-Roboter-Interaktion? Sollten sozial interaktive Roboter eine Art

„Gruppenidentität“ gegenüber ihren menschenlichen Partnern aufweisen oder zur Schau stellen,

so dass auch die mögliche Unsicherheit der Menschen im Umgang mit den künstlichen Agenten

reduziert wird? Offenbar verlassen sich Menschen bei der Konstruktion einer gemeinsamen

Realitätssicht (Shared Reality) in einem deutlich größeren Ausmaß auf Mitglieder ihrer eigenen

Gruppe als auf Fremdgruppenmitglieder (Echterhoff, Higgins & Groll, 2005; Festinger, 1950).

Eignen sich Roboter ebenso wenig wie Fremdgruppenmitglieder als soziale Partner bei der

gemeinsamen Realitätsbildung? Und wenn dies der Fall ist, gibt es Merkmale oder

Eigenschaften (wie etwa Hinweise auf Kompetenz, Expertise oder Vertrauenswürdigkeit),

durch die sie sich als geeignete „Kokonstrukteure“ einer Shared Reality qualifizieren können?

Wie auch diese Überlegungen zu Intergruppenbeziehungen zwischen Menschen und

Robotern zeigen, eröffnen Untersuchungen der MMI neue Möglichkeiten zur Untersuchung

originär sozialpsychologischer Forschungsfragen. Der vorliegende Beitrag kann, so hoffen wir,

SozialpsychologInnen dazu ermutigen, die aktuellen technologischen Fortschritte sowohl für

genuin sozialpsychologische Forschungsinteressen als auch für eine theorie- und

methodenkritische Perspektivierung der MMI zu nutzen.

Social Robotics

23

Literatur

Adolphs, R. (2003). Cognitive neuroscience of human social behavior. Nature Reviews

Neuroscience, 4, 165-178.

Baron-Cohen, S. (1995). Mindblindness. Cambridge, MA: MIT Press.

Berry, D. S., Misovich, S. J., Kean, K. J., Baron, R. M. (1992). Effects of disruption of structure

and motion on perceptions of social causality. Personality & Social Psychology Bulletin, 18,

237-244.

Blakemore, S. J., Winston, J. & Frith, U. (2004). Social cognitive neuroscience: Where are we

heading. Trends in Cognitive Sciences, 8, 216-222.

Bohner, G., Moskowitz, G. B., & Chaiken, S. (1995). The interplay of heuristic and systematic

processing of social information.. European Review of Social Psychology, 6, 33-68.

Breazeal, C. (2002). Designing sociable robots. Cambridge, MA: MIT Press.

Breazeal, C. (2003a). Emotion and sociable human robots. International Journal of Human-

Computer Studies, 59, 119-155.

Breazeal, C. (2003b). Toward sociable robots. Robotics and Autonomous Systems, 42, 167-175.

Bretherton, I., McNew, S. & Beeghly-Smith, M. (1981). Early person knowledge as expressed

in gestural and verbal communication: When do infants acquire a “Theory of Mind”? In M.

Lamb & L. Sherrod (Eds.), Infant social cognition: Empirical and theoretical considerations

(pp. 333-373). Hillsdale, NJ: Erlbaum.

Bruce, A., Nourbakhsh, I. & Simmons, R. (2001). The role of expressiveness and attention in

human-robot interaction. Proceedings of the 2001 AAAI Fall Symposium, AAAI Press, Cape

Cod, 4138-4142.

Caporael, L. R. & Thorngate, W. (1984). Introduction: Toward the social psychology of

computing. Journal of Social Issues, 40, 1-13.

Caporael, L. R. (1986). Anthropomorphism and mechanomorphism: Two faces of the human

machine. Computers in Human Behavior, 2, 215-234.

Cappella, J. N., & Pelachaud, C. (2002). Rules for responsive robots: Using human interactions

to build virtual interactions. In H. T. Reis et al. (Eds.), Stability and change in relationships.

(pp.325-353). New York: Cambridge University Press.

Carrol, J. M. (1996). Becoming social: Expanding scenario-based approaches in HCI.

Behaviour & Information Technology, 15, 266-275.

Chaiken, S., & Trope, Y. (1999). Dual-process theories in social psychology. New York:

Guilford.

Cole, J. (1999). About face. Cambridge, MA: MIT Press.

Social Robotics

24

Dautenhahn, K., & Billard, A. (1999). Bringing up robots or – the psychology of socially

intelligent robots: From theory to implementation. In: Proceedings of the Autonomous

Agents, 366-367.

DiSalvo, C. F., Gemperle, F., Forlizzi, J., & Kiesler, S. (2002). All robots are not created equal:

The design and perception of humanoid robot heads. DIS Conference Proceedings, London,

England, June 25-28, 2002, pp. 321-326.

Duffy, B.R. (2003). Anthropomorphism and the social robot. Robotics and Autonomous

Systems, 42, 177–190.

Echterhoff, G., Higgins, E.T. & Groll, S. (2005). Audience-tuning effects on memory: The role

of shared reality. Journal of Personality and Social Psychology, 89, 257–276.

Festinger, L. (1950). Informal social communication. Psychological Review, 57, 271-282.

Fiske, S. T., Cuddy, A. J. C., Glick, P., & Xu, J. (2002). A model of (often mixed) stereotype

content: Competence and warmth respectively follow from perceived status and competition.

Journal of Personality and Social Psychology, 82, 878-902.

Fodor, J. A. (1983). The modularity of mind. Cambridge, MA: MIT Press.

Fogg, B. J. & Nass, C. (1997). Silicon sycophants: The effects of computers that flatter.

International Journal of Human-Computer Studies, 46, 551-561.

Fong, T., Nourbakhsh, I., & Dautenhahn, K. (2003). A survey of socially interactive robots.

Robotics and Autonomous Systems, 42, 143-166.

Gelman, R & Spelke, E. (1981). The development of thoughts about animate and inanimate

objects: Implications for research on social cognition. In J. Flavell & L. Ross (Eds.), Social

cognitive development: Frontiers and possible futures (pp. ##-##). Cambridge: Cambridge

University Press.

Gergely, G., Nádasdy, Z., Csibra, G. & Bíró, S. (1995). Taking the intentional stance at 12

months of age. Cognition, 56, 165-193.

Goetz, J., Kiesler, S. & Powers, A. (2003). Matching robot appearance and behavior to tasks to

improve human-robot cooperation. In Proceedings of the 12th IEEE Workshop on Robot

and Human Interactive Communication. ROMAN 2003, Oct. 31 - Nov. 2, IXX (pp. 55-60).

Graf, B., Hans, M. & Schraft, R. D. (2004). Care-O-Bot II: Development of a next generation

robotic home assistant. Autonomous Robots, 16, 193–205.

Gregory, R. L. (1973). The confounded eye. In R. L. Gregory & E. H. Gombrich (Eds.),

Illusion in nature and art (pp. 49-96). London: Duckworth.

Grice, H. P. (1975). Logic and conversation. In P. Cole, & J. L. Morgan (Eds.), Syntax and

semantics: Speech acts (Vol. 3, pp. 41-58). New York: Academic Press.

Social Robotics

25

Guth, W. & Tietz, R. (1986). Auctioning ultimatum bargaining positions: How to act if rational

decisions are unacceptable? In R. W. Scholz (Ed.), Current issues in West German decision

research. (pp.173-185). New York: Peter Lang.

Heider, F. (1958). The psychology of interpersonal relations. New York: Wiley.

Heider, F. & Simmel, M. (1944). An experimental study of apparent behavior. American

Journal of Psychology, 57, 243-259.

Hinds, P. J., Roberts, T. L., & Jones, H. (2004). Whose job is it anyway? A study of human-

robot interaction in a collaborative task. Human-Computer Interaction, 19, 151-181.

Johnson, D., Gardner, J., & Wiles, J. (2004). Experience as a moderator of the media equation:

The impact of flattery and praise. International Journal of Human-Computer Studies, 61,

237-258.

Kanda, T., Hirano, T., Easton, D. & Ishiguro, H. (2004). Interactive robots as social partners

and peer tutors for children: A field trial. Human-Computer-Interaction, 19 (1-2), 61-84.

Kiesler, S. & Hinds, P. (2004). Introduction to this special issue on human-robot interaction.

Human-Computer Interaction, 19, 1-8.

Kiesler, S., Sproull, L., & Waters, K. (1996). A prisoner’s dilemma experiment on cooperation

with people and human-like computers. Journal of Personality and Social Psychology, 70,

47-56.

Kilner, J. M., Paulignan, Y. & Blakemore, S. J. (2003). An interference effect of observed

biological movement on action. Current Biology, 13, 522-525.

Krämer, N.C. (in Druck). Soziale Wirkungen virtueller Helfer. Stuttgart: Kohlhammer.

Krämer, N. C., & Bente, G. (2002). Virtuelle Helfer: Embodied Conversational Agents in der

Mensch-Computer-Interaktion. In G. Bente, N. C. Krämer & A. Petersen (Eds.), Virtuelle

Realitäten (pp. 203-225). Göttingen: Hogrefe.

Langer, E. J. (1989). Mindfulness. Reading, MA: Addison-Wesley.

Lee, E.-J. & Nass, C. (2002). Experimental tests of normative group influence and

representation effects in computer-mediated communication: When interacting via

computers differs from interacting with computers. Human Communication Research, 28,

349-381.

Lee, S.-L., Kiesler, S., Lau, I.Y.-M. & Chiu, C.-Y. (2005). Human mental models of humanoid

computers. Proceedings of the International Conference on Robotics and Automation,

Barcelona, Spain, http://www.peopleandrobots.org/admin/uploads/LeeKiesleretAlICRA05.pdf

Michotte, A. (1963). The perception of causality. New York: Basic Books.

Moon, Y. (2000). Intimate exchanges: Using computers to elicit self-disclosure from

Social Robotics

26

consumers. Journal of Consumer Research, 26, 324-340.

Mori, M. (1982). The Buddha in the robot. Boston, MA: Tuttle.

Nass, C. (2004). Etiquette equality: Exhibitions and expectations of computer politeness.

Communications of the ACM, 47, 35-37.

Nass, C., Fogg, B. J., & Moon, Y. (1996). Can computers be teammates? International Journal

of Human-Computer Studies, 45, 669-678.

Nass, C., Isbister, K., & Lee, E-J. (2000). Truth is beauty: Researching conversational agents.

In J. Cassells, J. Sullivan, S. Prevost, & E. Churchill (Eds.), Embodied conversational agents

(pp. 374-402). Cambridge, MA: MIT Press.

Nass, C. & Moon, Y. (2000). Machines and mindlessness: Social responses to computers.

Journal of Social Issues, 56, 81-103.

Nass, C., Moon, Y., & Carney, P. (1999). Are people polite to computers? Responses to

computer-based interviewing systems. Journal of Applied Social Psychology, 29, 1093-1110.

Nass, C., Moon, Y., Fogg, B. J., Reeves, B. & Dryer, D.C. (1995). Can computer personalities

be human personalities? International Journal of Human Computer Studies, 43, 223-239.

Nass, C., Moon, Y., & Green, N. (1997). Are computers gender-neutral? Gender stereotypic

responses to computers. Journal of Applied Social Psychology, 27, 864-876.

Nass, C., Moon, Y., Morkes, J., Kim, E. Y., & Fogg, B. J. (1997). Computers are social actors:

A review of current research. In B. Friedman (Ed.), Moral and ethical issues in human-

computer interaction (pp. 137-162). Stanford, CA: CSLI Press.

Nass, C., Steuer, J. S., Henriksen, L., & Dryer, D. C. (1994). Machines and social attributions:

Performance assessments of computers subsequent to “self” or “other” evaluations.

International Journal of Human-Computer Studies, 40, 543-559.

Neisser, U. (1963).The imitation of man by machine. Science, 139, 193-197.

Nisbett, R. E. & Wilson, D. (1977). Telling more than we can know: Verbal reports on mental

processes. Psychological Review, 84, 231-253.

Ostrom, T. M. (1984). The sovereignty of social cognition. In R. S. Wyer, Jr. & T. K. Srull

(Eds.), Handbook of social cognition (Vol. 1, pp. 1-38). Hillsdale, NJ: Erlbaum.

Parise, S., Kiesler, S., Sproull, L., & Waters, K. (1999). Cooperating with life-like interface

agents. Computers in Human Behavior, 15, 123-142.

Pineau, J., Montemerlo, M., Pollack, M., Roy, N. & Thrun, S. (2003). Towards robotic

assistants in nursing homes: Challenges and results. Robotics and Autonomous Systems, 42,

271-281.

Reeves, B. & Nass, C. I. (1996). The media equation: How people treat computers, television,

Social Robotics

27

and new media like real people and places. Stanford, CA: CSLI Publications.

Rickenberg, R., & Reeves, B. (2000). The effects of animated characters on anxiety, task

performance, and evaluations of user interfaces. Proceedings of the SIGCHI Conference on

Human Factors in Computing Systems, 49-56.

Sanfey, A. G., Rilling, J. K., Aronson, J. A., Nystrom, L. E., & Cohen, J. S. (2003). The neural

basis of economic decision-making in the ultimatum game. Science, 300, 1755-1758.

Scassellati, B. (2002). Theory of mind for a humanoid robot. Autonomous Robots, 12, 13-24.

Scheibe, K. E. & Erwin, M. (1979). The computer as alter. Journal of Social Psychology, 108,

103-109.

Schwarz, N., Strack, F., Hilton, D. J., & Naderer, G. (1991). Base rates, representativeness, and

the logic of conversation: The contextual relevance of "irrelevant" information. Social

Cognition, 9, 67-84.

Searle, J. R. (1981). Minds, brains and programs. In D. R. Hofstadter & D. C. Dennett (Eds.),

The Mind’s I: Fantasies and reflections on self and soul (pp. 353-373). Toronto. Bantam.

Sproull, L., Kiesler, S. & Zubrow, D. (1984). Encountering an alien culture. Journal of Social

Issues, 40, 31-48.

Sproull, L., Subramani, M., Kiesler, S., Walker, J. H. & Waters, K. (1996). When the interface

is a face. Human Computer Interaction, 11, 97-124.

Sundar, S. S. (2004). Loyalty to computer terminals: Is it anthropomorphism or consistency?

Behavior & Information Technology, 23, 107-118.

Sundar, S. S. & Nass, C. (2000). Source orientation in human–computer interaction:

Programmer, networker, or independent social actor? Communication Research, 27, 683-

703.

Takeuchi, A., & Naito, T. (1995). Situated facial displays: Towards social interaction. In I. Katz

et al. (Eds), Human factors in computing systems: CHI’95 conference proceedings (pp. 450-

455). New York: ACM Press.

Thrun, S. (2004). Toward a framework for human-robot interaction. Human Computer

Interaction, 19, 9 -24.

Tremoulet, P. D. & Feldman, J. (2000). Perception of animacy from the motion of a single

object. Perception, 29, 943-951.

Turing, A. (1950). Computing machinery and intelligence. Mind, 59, 433-460.

Turkle, S. (1984). The second self: Computers and the human spirit. New York: Simon &

Schuster.

Tversky, A., & Kahneman, D. (1974). Judgment under uncertainty: Heuristics and biases.

Social Robotics

28

Science, 185, 1124-1131.

UNECE (United Nations Economic Commission for Europe). (2004). World robotics 2004.

Satistics, market analysis, forecasts, case studies and profitability of robot investment.

Geneva: UN.

Walker, J. H., Sproull, L.&Subramani, R. (1994). Using a Human Face in an Interface. Human

Factors in Computing Systems: CHI’94 Conference Proceedings (pp. 85–91). Boston: ACM.

Woods, S., Dautenhahn, K., & Schulz, J. (2004), The design space of robots: Investigating

children’s views. Proc. IEEE Ro-man 2004, 13th IEEE International Workshop on Robot

and Human Interactive Communication, September 20-22, 2004, Kurashiki, Okayama Japan,

IEEE Press, pp. 47-52.

Zajonc, R. B. (1965). Social facilitation. Science, 149, 269-274.

Social Robotics

29

Abbildung 1. Der Zusammenhang zwischen Menschenähnlichkeit und Akzeptanz von

Maschinen – das "Uncanny Valley" bei geringer Abweichung von perfekter

Menschenähnlichkeit.

Social Robotics

30

Abbildung 2. Bilder von Robotern, die von Vpn in der Studie von Goetz, Kiesler und Powers

(2003) beurteilt wurden. (© Goetz, Kiesler und Powers, 2003. Reproduziert mit freundlicher

Erlaubnis der AutorInnen.).

jugendlich erwachsen

männlich weiblich männlich weiblich

Mensch

Hybrid

Maschine