Embodied Interaction

Die Abwesenheit des menschlichen Körpers galt bislang als wesentlicher Unterschied zwischen der Interaktion mit der realweltlichen Umgebung und der Interaktion mit dem Computer [1]. Im aktuellen wissenschaftlichen Diskurs wird jedoch zunehmend der gesamte Körper als Kommunikationskanal [2] verstanden, über den Mensch und Computer mit einander interagieren können [3].

Als Embodiment [4] wird die allmähliche Verkörperung der Mensch- Computer- Interaktion bezeichnet, die auf physischen Aktivitäten in der Realumgebung des Nutzers und basiert und sich in Echtzeit vollzieht:

„Embodiment means possessing and acting through a physical manifestation in the world. […] Embodied phenomena are those that by their very nature occur in real time and real space.“[5]

Es wird davon ausgegangen, dass die physische Komponente an Bedeutung gewinnen und die klassische Interaktion über den Computerbildschirm ergänzen wird. Menschen werden in Zukunft zusätzlich über Berührungen und Bewegungen mit Computern interagieren, wobei sich die menschliche Kommunikation mit digitalen Technologien immer mehr verkörpern wird.

„We expect interaction with digital media to become much more physical and less screen based. People will interact with digital technologies through touch, manipulation, and gesture; interaction will increasingly be embodied.” [6]


Imaz und Benyon sprechen auch vom „Embodied Turn“, der für sie eine Reaktion auf den Mangel alternativer Interaktionsformen ist. Dabei lässt sich der Ursprung der verkörperten Interaktion weit zurückverfolgen. Bereits seit mehreren Jahrzehnten sind multimodale Formen der Interaktion Gegenstand von Forschungsprojekten, die darauf abzielen, die zwischenmenschlichen Kommunikationskanäle auch für die Interaktion mit dem Computer nutzbar zu machen. Durch multimodale Interaktion soll die Interaktion mit Computern intuitiv werden [7]. Sie soll ohne vorherige Kenntnis selbsterklärend sein oder zumindest so wenig Erklärung wie möglich benötigen [8]. Um diesem Ziel möglichst nah zu kommen, werden die natürlichen Ausdrucksformen wie beispielsweise die Gestik des Menschen und die Bewegungen des Körpers und seine Wahrnehmungsfähigkeiten berücksichtigt und in die Mensch- Computer- Interaktion integriert [9]. Zusätzlich oder alternativ zur traditionellen Eingabe von Informationen über Tastatur und Maus kann der Nutzer über verschiedene Methoden mit dem Computer in Interaktion treten.

Bewegtbilderkennung

Das wachsende Interesse an Bewegungssensorik gehört für Benford et al. zu einem der wesentlichen Entwicklungstrends in der Mensch-Computer-Interaktion. Sie wird durch eine ganze Reihe von Technologien ermöglicht, über die der Computer die Bewegungen des Nutzers direkt erkennen und auf sein Verhalten reagieren kann [10]. Hierzu gehören unter anderem Technologien der Bild- und Tonerkennung, die elektronische Identifizierung über Funkwellen, Methoden der Druck- und Lichtmessung oder elektrostatische Verfahren.

Anstelle der direkten Manipulation durch die Hände des Nutzers, kann der Computer durch die Erkennung menschlicher Bewegungen eigenständige Reaktionen ausführen. Der Nutzer erhält eine größere Freiheit, da seine Aufmerksamkeit in weitaus geringerem Maße gebunden ist. Durch den Einsatz von Bewegungssensorik ist die aktive Teilhabe keine Vorraussetzung mehr. Der Nutzer wird die Interaktion mit dem Computer daher immer weniger aktiv steuern. Sie wird zunehmend autonom und unbewusst ablaufen. Dies wird im besonderen dann der Fall sein, wenn für das Verhalten des Nutzers und seine Bewegungen vom Computer gemessen werden kann, ohne das es zusätzlicher Geräte oder Ausrüstung bedarf, wie es beispielsweise bei der Bilderkennung über die Analyse von Videobildern der Fall ist. Visuelle Bilderkennungstechnologien können die Anwesenheit, Identität, Anzahl, Position und die Bewegung von Objekten und Menschen erfassen, analysieren und Reaktionen auf das Verhalten die jeweilige Situation veranlassen [11].

Bereits in den 1980 Jahren sah Bolt, der mit seiner Anwendungen Put-That-There eine der ersten multimodalen Systeme entwickelt hatte, in der Bewegungserkennung (jedoch zunächst nur zur Unterstützung der Spracherkennung) eine wertvolle Ergänzung zu rein grafischen Schnittstellen, mit der eine natürlichere Interaktion mit Computer ermöglicht werden könnte [12].

Während sich die Erforschung der sprachlichen Interaktion bereits weiter zurückverfolgen lässt [13], ist die Interaktion über die Bewegungen des Körpers erst seit kürzerem von Interesse:

„ While speech recognition has already been in use in several systems for a few years, the foundations for vision technology as a paradigm for user interfaces have only just been laid. … “[14]

Auch für Myron Krueger, der als Pionier der Bewegtbilderkennung mit seiner Anwendung Videoplace zum Ender der 1970er Jahre eines der ersten Computersysteme entwickelte, dass die Interaktion über Körperbewegungen in Echtzeit ermöglichte, ist unter den multimodalen Formen der Interaktion die Bewegbilderkennung am vielversprechendsten [15]. Über dieses System konnten zwei räumlich voneinander getrennte Personen über ihre projizierten Abbilder in einem gemeinsamen virtuellen Raum, das heißt einer gemeinsamen Projektsfläche, miteinander kommunizieren. Spätere System ermöglichten, das Live-Videobild der Nutzer mit grafischen Elementen anzureichern beziehungsweise das resultierende Bild in Echtzeit zu verfremden. [16]

Für Krueger stand dabei nicht die Bewegtbilderkennung an sich im Vordergrund, sondern die reaktive Umgebung, in der die Interaktion stattfindet:

„In principle, the Environment can respond to a participant’s position in the room, voice volume or pitch, position relative to prior position, or the time elapsed since the last movement. It can also respond to every nth movement, the rate of movement, posture, height, colors of clothing, or time elapsed since the last person entered the room. If there are several people in the room, the Environment can respond to the distance separating them, the average of their positions, or the computer’s ability to perceive them as separate entities when they are very close together.“[17]

Mit der Entwicklung einer Reihe prototypischer Anwendungen hat Krueger bereits 1983 einen Ausblick in die Zukunft der körperlichen Interaktion gegeben, in der psychologischer Komfort und Interaktionsvergnügen mit Effektivität bei der Nutzung von Computern einhergeht.

Die Möglichkeit, mit den Bildschirminhalten zu interagieren, in dem der Nutzer lediglich einen Interaktionsbereich (Sensing area) betritt, ist für Wren et al. ein entscheidender Unterschied zu anderen Formen der Interaktion [18]. Nicht nur die Form der Interaktion wird auf diese Weise natürlicher und intuitiver. Der wesentliche Unterschied ist, dass der Nutzer nicht erst Zeit damit verbringen muss, zusätzliche Sensoren oder Kleidung [19] an zu bringen und nach der Nutzung wieder abzulegen. Diese Ansicht wird auch von Yang et al. unterstützt.

“For truly effective and unobtrusive multimodal human-computer interaction, we envision systems that allow for freedom of movement […] without the need for intrusive devices such as headsets and close-talking microphones. A visual tracking system can provide much useful information about users for computer systems.”[20]

Durch die Bewegtbilderkennung werden Anwendungen in natürlichen Umgebungen ermöglicht, in denen Personen in unmittelbarer Interaktion mit den angezeigten Inhalten stehen. Die Interaktion bedarf keiner zusätzlichen Hardware, mit denen die natürlichen Bewegungen eingeschränkt werden. Durch die Nutzung passiver Sensoren und großflächiger Displays können mehrere Personen gleichzeitig in ihrer gewohnten Umgebung in Interaktion mit den angezeigten Inhalten treten.

“An image of the participant is composited together with the graphical world and projected onto a large screen in front of the participant. No goggles, gloves, or wires are needed; agents and objects in the graphical world can be acted upon by the human participant through the use of domain-specific computer vision techniques that analyze the image of the person.”[21]

In dem Anwendungen dieser Art auf der natürliche Bewegung des Menschen und seinem Bedürfnis basieren, die eigene Umgebung zu nutzen, wird eine intuitive und komfortable Bedienung interaktiver Anwendung ohne zusätzliche Hardware möglich [22]. Hierin liegt die besondere Stärke der Bewegtbilderkennung. Die Interaktion kann in der gewohnten Umgebung des Nutzers stattfinden, ohne dass vorher zusätzliche Sensoren oder andere Hardware an den Körper angebracht werden müssen:

“Instead of trying to recreate a sense of place by strapping video-phones and position/orientation sensors to our heads, we should strive to make as much of the real environment as possible responsible to our actions.”[23]

Ein weiterer Vorteil der Bewegtbilderkennung ist die Fähigkeit zur kollaborativen Interaktion. An der Interaktion einer Person kann auch jeder Zuschauer unmittelbar teilhaben, wenn er den Interaktionsbereich betritt, beziehungsweise bestimmte Bewegungen ausführt. Unbewusst oder bewusst können sie allein durch ihre Anwesenheit oder gezielte Bewegungen das Verhalten bei der Interaktion beeinflussen.

ALIVE

Abbildung: Bewegungsbasierte Interaktion mit der Anwendung ALIVE
(Quelle: MIT Media Lab)

Seit einigen Jahren lässt sich die Entwicklung erster prototypischer Anwendungen im Bereich der Bewegtbilderkennung beobachten. Ein frühes Beispiel ist die Anwendung ALIVE [24]. Die zentrale Komponente des Projekts ist ein “magischer Spiegel”, indem der Betrachter sich neben einer virtuellen Figur erblickt, die direkt mit ihm interagiert. Bewegt er sich, folgt ihm die Figur [25]. Zwei spätere Anwendungen der Bewegtbilderkennung stammen von ART+COM. Bei der ersten Anwendung aus dem Jahre 2000, dem Bodymover, wird der gesamte Körper des Nutzers zur Schnittstelle zwischen Mensch und Computer:

“Auf vier präparierten Flächen von etwa 5 x 4 m Größe können die Spieler untereinander und mit architektonischen Objekten interagieren. Die Outline jedes einzelnen Spielers wird beim Betreten der Fläche von einem Tracking-System erkannt, daraus wird eine Grafik berechnet, die um den Spieler auf den Boden projiziert wird. Die auf der Fläche befindlichen Spieler beeinflussen durch die Bewegung ihrer Arme und Beine diese Grafik. Dynamisch ausgelöste Toneffekte werden von den Spielern zum übergreifenden Raumsound komponiert. Die Körper der Spieler werden zum medialen Interface. Ihre spielerische Bewegung schafft ein audio-visuelles Raum-Erlebnis.”[26]

Abbildung: Konzeptvisualisierungen der Anwendung Bodymover
(Quelle ART+COM)

Nach einem ähnlichen Prinzip funktioniert die Anwendung Famous Grouse Experience aus dem Jahre 2002. Durch Bewegungen des eigenen Körpers, können die Nutzer mit projizierten Filminhalten interagieren. Springen sie auf das auf den Boden projizierte Eis, bricht dieses unter ihnen auseinander. Laufen sie über das auf dem Boden dargestellte Wasser, schlagen sie dabei virtuelle Wellen.

Aufbauend auf den ersten Entwicklungen erwartet Porta bereits 2002 eine wachsende Bedeutung der Bewegtbilderkennung für die Interaktion mit Computern.

“We think this is due to change shortly… It is no accident that all the main electronics/computer science companies have started research programs in the field of Vision-based interfaces.”[27]

Es sei kein Zufall, dass alle großen Unternehmen der Branche und renommierte Forschungsinstitute Projekte zur Erforschung der Bewegtbilderkennung gestartet haben. Zu diesen Instituten gehört auch das Fraunhofer Institut für Medienkommunikation, das die Erkennung von Bewegungen über elektrostatische Verfahren untersucht; „Statt Befehle über die Tastatur einzugeben, sollen sich Daten wie Dialogpartner verhalten und über Gestik abgerufen und gesteuert werden. Wenn der Benutzer den Zeigefinger in Richtung der gewünschten Information ausstreckt, soll die Software entsprechende Reaktionen einleiten.“ Zur Realisierung dieser Forderungen wurde ein bewegungsgesteuerter PointScreen Browser entwickelt. Im Abstand von einigen Metern vor einem großflächigen Display wird der PointScreen aufgestellt, der aus einer senkrecht stehenden Glasscheibe und einer Bodenplatte aus Metall besteht. Die Technologie nutzt das elektrostatische Feld des Menschen, über das er in Interaktion mit der jeweiligen Anwendung treten kann. Durch seine Handbewegung kann er etwa den Mauszeiger steuern und über die Geschwindigkeit de Bewegung bestimmte Aktionen auslösen. [28]

Abbildung: PointScreen Browsers
(Quelle: Fraunhofer Institut)

Als Porta im Jahre 2002 seine Beobachtungen verfasst hat, waren die notwendigen Technologien und Anwendungen noch immer in der Entwicklungsphase und wurden lediglich als Prototyp hergestellt.

“Many of the techniques and applications […] are still in a development stage and exist only in prototypal forms. […] Almost none of them is commercially available yet. [29]

Diese Einschätzung wird auch noch zwei Jahre später von Turk unterstützt [30]. Bereits damals sahen beide jedoch die Möglichkeit, dass bewegungsbasierte Interaktion zu einem neuen Paradigma der Mensch-Computer-Interaktion werden könnte. Wenngleich bislang die meisten Interfaces die sichtbaren Veränderungen ihrer Umgebung nicht wahrnehmen können, scheint der die Bewegtbilderkennung als Interaktionskanal zwischen Mensch und Computer ein besonders großes Potential zu haben.

Der Blick auf aktuelle Entwicklungen scheint diese Annahme zu bestärken. So sieht Schmitz ein Jahrzehnt nach den Arbeiten von Wren und Yang den Einsatz von Bewegtbilderkennung bereits teilweise realisiert. Die Interaktion mehrerer Nutzer über ihre Bewegungen im städtischen Raum werden zunehmend genutzt, um öffentlich verfügbare Displays gemeinsam zu nutzen [31]. Seit kürzerem lässt sich ein wachsendes Interesse an diesen Einsatzszenarien beobachten. Die notwendigen Technologien wurden zwar auch schon in der Vergangenheit eingesetzt, funktionierten bislang jedoch, von wenigen Anwendungen [32] abgesehen, meist nur unter Laborbedingungen einwandfrei. Mittlerweile hat sich die Situation jedoch geändert. Interaktive Anwendungen, die auf Bewegung und Gestik von Körpern basieren, lassen sich heute auch außerhalb der Laborsituationen realisieren:

„Only recently video-based recognition has achieved an acceptable performance level in out-of-the-laboratory settings. [33

Eine konkrete Anwendung (wenngleich noch immer mit deutlichem Labor-Charakter) zeigt das “Dynamically Transparent Window”, das vom Department of Information & Media Studies entwickelt und von Digital Experience Blog beschrieben wurde:

“The Dynamically Transparent Window responds to the movements of people passing by. The windows are fitted with electro-chromatic foil, which can change from opaque to transparent when an electric current runs through it. By using strips or rectangles of the foil, narrow bands on the façade change, in order to reveal what is on display in the store, when people walk by the window.” (Mehr…)

Im öffentlichen Raum kam dieses Prinzip auf Basis der Technologie von humanlocator auf der Fashion Week in New York zum Einsatz, wie das folgende Video zeigt.

Ein erstes Beispiel, bei dem die Interaktion über Körperbewegungen von einer großen Nutzerschaft entdeckt werden konnte, ist die Spielekonsole von Sony. Bereits 2003 führte Sony die EyeToy Kamera als Zubehör zur Playstation 2 ein. Durch integrierte Bewegungssensorik war es den Spielern erstmals möglich, über ihre Körperbewegungen beispielsweise in einem Simulator ein Flugzeug zu fliegen. Die Bewegungen des Spielers werden durch die EyeToy Kamera aufgezeichnet und in das Spielgeschehen einbezogen. [34]

Aus einem ganz anderen Bereich stammt die Anwendung People Counter der Firma Vis-à-pix, mit der Anzahl und Bewegungen von Personen in Videobildern in beliebigen Umgebungen analysiert werden können. Da für die Anwendung lediglich eine oder mehrere Videokameras notwendig sind, lässt sie sich problemlos auch auf öffentlichen Plätzen einsetzen. Die Aufnahmen mehrerer Kameras können gemeinsam analysiert werden, so dass eine hohe Genauigkeit bei der Bewegungsanalyse erreicht werden kann. Neben der Anzahl von Personen lässt sich auch deren Bewegungsrichtung erkennen und auf die Bewegung reagieren. [35]

Anders als bei den beschriebenen Verfahren der Erkennung von Bewegungen über die Auswertung von Videobildern benötigen die sogenannten Tangible User Interfaces bislang in der Regel aufwendige Hardware. Die Entwicklung zeigt damit zwar in dieselbe Richtung, nämlich der Mensch-Computer-Interaktion über Bewegungen des Nutzers, die technische Umsetzung erfolgt jedoch mithilfe anderer Technologien.

Nachdem sich zusammenfassend sagen lässt, dass durch eine Bewegtbilderken­nung eine besonders intuitive und komfortable Bedienung interaktiver Anwendungen in der gewohnten Umgebung des Nutzers möglich wird, die ohne zusätzliche Hardware auskommt, stellt sich für die Untersuchung der Nutzung interaktiver Großbildschirme im öffentlichen Raum die Frage, wie sich der Prozess der Interaktion von traditio­nellen Interaktionsprozessen unterscheidet und insbesondere auch, wie er sich in die physische Umgebung des Bildschirms einfügt. Siehe hierzu Interactive Displays: Perception, Awareness, and Interaction.

[1] vgl. Donath, J. S. (1997), Inhabiting the Virtual City: the Design of Social Environments for Electronic Communities, MIT Doctoral Thesis, URL: http://smg.media.mit.edu/people/Judith/Thesis/ [19.09.2007]

[2] vgl. zur Bedeutung körperlicher Prinzipien für die Wahrnehmung der Umgebung: Rompay, T., Hekkert, P., Muller, W. (2005), The bodily basis of product experience, in: Design Studies, Vol. 26, S.359-377

[3] vgl. Petersen, M.G., Iversen, O.S., Krogh, P.G., Ludvigsen, M. (2004), Aesthetic Interaction – A Pragmatist’s Aesthetic of Interactive Systems, Proceedings of DIS2004, S. 269-276, Sakata, M. Shiba, M. Maiya, K. Tadenuma, M. (2004), Human Body as the Medium in Dance Movement, in: International Journal of Human-Computer Interaction. Vol. 17, Nr. 3, S. 427-444

[4] vgl. hierzu unter anderem Pfeifer, R., Bongard, J. (2007), how the body shapes the way we think: a new view of intelligence, MIT Press, MA, oder Dourish, P. (2004a), Where The Action Is: The Foundations of Embodied Interaction, MIT Press

[5] Dourish, P. (2004a), Where The Action Is: The Foundations of Embodied Interaction, MIT Press, S.100-101

[6] Imaz, M., Benyon, D. (2007), Designing with Blends: Conceptual Foundations of Human-Computer Interaction and Software Engineering, MIT Press, MA

[7] vgl. Höysniemi, J., Hämäläinen, P., Turkki, L., Rouvi, T. (2005), Children’s Intuitive Gestures in Vision-based Action Games, in: Communications of the ACM, Vol. 48, Nr. 1, S.45-50

[8] vgl. zu Bedeutung und Anwendung intuitiver Interaktion: Blackler, A., Popovic, V., Mahar, D. (2003), The nature of intuitive use of products: an experimental approach, Design Studies, 24 (2003) S.491-506

[9] vgl. Bullinger, H.J., Ziegler, J., Bauer, W. (2002), Intuitive Human–Computer Interaction—Toward a User-Friendly Information Society, in: International Journal of Human-Computer-Interaction, Vol.14, Nr.1, S.1-23

[10] vgl. Petersen, M.G., Iversen, O.S., Krogh, P.G., Ludvigsen, M. (2004), Aesthetic Interaction – A Pragmatist’s Aesthetic of Interactive Systems, Proceedings of DIS2004, S. 269-276 und Turk, M. (2004), Computer Vision in the Interface, Communications of the ACM, 2004, Vol. 47,1, S. 61-67

[11] vgl. Benford, S., Schnädelbach, H., Koleva, B., Anastasi, R., Grennhalgh, C., Rodden, T., Green, J., Ghali, A., Pridmore, T. (2005), Expected, Sensed, and Desired: A Framework for Designing Sensing-Based Interaction, ACM Transactions on Computer-Human Interaction, Vol. 12, Nr. 1, S. 3-30

[12] vgl. Bolt, R. A. (1980), “Put-that-there”: Voice and gesture at the graphics interface, in: Proceedings of SIGGRAPH ’80, New York, S. 262-270

[13] Zwar hat es in der Vergangenheit eine Reihe von Versuchen gegeben, die Interaktionsbandbreite durch die Entwicklung von Sprachinterfaces zu erweitern. Diese Versuche sind jedoch in der Vergangenheit nicht erfolgreich gewesen, so dass sich bislang kein sprachbasiertes Interface durchsetzen konnte. Vgl. hierzu Pfeifer, R., Bongard, J. (2007), how the body shapes the way we think: a new view of intelligence, MIT Press, MA, oder bereits Pavlovic, V. I., Sharma, R., Huang, T. S. (1997), Visual Interpretation of Hand Gestures for Human-Computer Interaction: A Review, in: IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, Nr. 7, URL: http://citeseer.ist.psu.edu/62781.html [Stand: 18.09.2007]

[14] Porta, M. (2002), Vision-based user interfaces: methods and applications, in: International Journal of Human-Computer Studies, Vol. 57, Nr. 1, S. 27–73

[15] vgl. Krueger, M.W. (1983), Artificial Reality, Reading, Massachusetts

[16] vgl. Krueger, M.W. (1991), Full-Body Interactive Exhibits, in: Hypermedia and Interactivity in Museums, Proceedings of an International Conference (ICHIM ’91), S.222-23

[17] Krueger, M.W. (1983), Artificial Reality, Reading, Massachusetts, S.43

[18] vgl. Wren, C.R., Sparacino, F., Azarbayejani, A.J., Darrell, T.J., Starner, T.E., Kotani, A., Chao, C.M., Hlavac, M., Russel, K.B., Pentland, A.P. (1997), Perceptive Spaces for Performance and Entertainment: Untethered Interaction using Computer Vision and Audition, in: Applied Artificial Intelligence, Vol. 11, Nr. 4., S. 267-284

[19] vgl. zur Erkennung von Handbewegungen über Sensor-Handschuhe Pavlovic, V. I., Sharma, R., Huang, T. S. (1997), Visual Interpretation of Hand Gestures for Human-Computer Interaction: A Review, in: IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 19, Nr. 7, URL: http://citeseer.ist.psu.edu/62781.html [Stand: 18.09.2007]

[20] Yang, J., Stiefelhagen, R., Meier, U., Waibel, A. (1998), Visual tracking for multimodal human computer interaction, in: Karat, C., Lund, A., Coutaz, J., Karat, J. (Hrsg.) Conference on Human Factors in Computing Systems, New York, S. 140-147

[21] Darrell, T., Maes, P., Blumberg, B., Pentland, A. P. (1995), A novel environment for situated vision and behavior, in: M. S. Landy, L. T. Maloney, M. Pavel, R. C. Jain (Hrsg.) Exploratory Vision: the Active Eye, Springer Series In Perception Engineering, New York, S. 319-331

[22] vgl. Huang, E.M., Russell, D.M., Sue, A.E. (2004), IM Here: Public Instant Messaging on Large, Shared Displays für Workgroup Interactions, in: Proceedings of CHI 2004, Vol. 6, Nr.1, S.279-286

[23] Wren, C.R., Sparacino, F., Azarbayejani, A.J., Darrell, T.J., Starner, T.E., Kotani, A., Chao, C.M., Hlavac, M., Russel, K.B., Pentland, A.P. (1997), Perceptive Spaces for Performance and Entertainment: Untethered Interaction using Computer Vision and Audition, in: Applied Artificial Intelligence, Vol. 11, Nr. 4., S. 267-284

[24] vgl. Maes, P., Blumberg, B., Darrell, T. and Pentland, A. (1997), The alive system: Full-body interaction with animated autonomous agents, in: ACM Multimedia Systems, Vol. 5, Nr. 2, S.105-112

[25] vgl. Wren, C.R. et al. (1997a), S. 267ff, weiterführende Informationen zum ALIVE Projekt unter http://vismod.media.mit.edu/vismod/demos/smartroom/

[26] Zitat aus der Produktbeschreibung auf www.artcom.de

[27] Porta, M. (2002), Vision-based user interfaces: methods and applications, in: International Journal of Human-Computer Studies, Vol. 57, Nr. 1, S. 28

[28] vgl. Strauss, W., Fleischmann, M., Muxel, A., Denzinger, J., Himmel, A. (2006), Matrix-Lupe: Browser zur Exploration multimedialer Datenbestände in Verbindung mit gestenbasierter PointScreen Technologie, in: Heinecke, A. M., Paul, H. (Hrsg.): Mensch und Computer 2006: Mensch und Computer im StrukturWandel, München: Oldenbourg SEITE, S. 411f

[29] Porta, M. (2002), Vision-based user interfaces: methods and applications, in: International Journal of Human-Computer Studies, Vol. 57, Nr. 1, S. 64

[30] Turk, M. (2004), Computer Vision in the Interface, Communications of the ACM, 2004, Vol. 47,1, S. 67

[31] Schmitz, M. (2006), A Framework for Multi-User Support in Instrumented Public Spaces, in: A. M. Heinecke, H. Paul (Hrsg.): Mensch & Computer 2006: Mensch und Computer im StrukturWandel, München, S.469-471

[32] vgl. Turk, M. (2004), Computer Vision in the Interface, Communications of the ACM, 2004, Vol. 47,1, S. 65

[33] Kraiss, K.-F. (2006), User Assistance and Video-Based Acquisition of Human Action, in: Heinecke, A.M., Paul, H. (Hrsg.), Mensch & Computer 2006: Mensch und Computer im Strukturwandel,, München, S.20

[34] Informationen zur EyeToy unter www.eyetoy.com

[35] Informationen zum People Counter unter www.visapix.de

Advertisements

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s




Enter email and receive new posts.

Join 7 other followers

Twitter-News

Pictures & Figures

July 2008
M T W T F S S
« Jun   Sep »
 123456
78910111213
14151617181920
21222324252627
28293031  

Categories

Blog Stats

  • 40,543 hits

%d bloggers like this: