Interactive Advertising

Interactive Advertising?

Bildschirmfoto 2015-02-12 um 01.33.38

Unter dem Titel “Interactive Advertising” wurden verschiedene Experimente entwickelt und durchgeführt, die sich mit interaktiver Werbung beschäftigen. Es wurde versucht neue Werbeformen zu entwickeln, die durch Interaktion auf den Nutzer und/oder durch den Nutzer reagieren. So soll Werbung, die sonst nur passiv war, aktiv Leute anziehen und auf deren Aktionen reagieren.

 

 

 // AUSGANGSPUNKT // IDEE //

Die grundlegende Idee der Arbeit besteht darin, an geeigneten öffentlichen Orten Werbung zu plazieren, die mit den Pasanten auf verschiedenen Arten interagieren.

 

// RECHERCHE //THEMENFINDUNG // ENTWICKLUNG //

Interactive Advertising im öffentlichen Raum?  Doch wo ?

Die Plazierung ist einer der entscheidenden Faktoren. Es wird ein Ort benötigt der öffentlich ist und der stark frequentiert sein muss. Es bieten sich hierfür besonders gut Bushaltestellen an. Diese bieten Plaz für die Installation und sind stark frequentiert. Natürlich wären auch andere Orte möglich. Eine Bushaltestelle bietet einen Ort an dem viele Leute, unterschiedlicher Ziel- und Altersgruppen, aufeinander treffen und darüberhinaus regelmäßig mehrmals am Tag von vielen Leuten aufgesucht werden. Dazu kommt, dass es ein Ort ist an dem man nur einige Minuten verbringt und so Werbung schnell und viral sein muss.

Viele Bushaltestellen sind Bushäuschen. Diese Häuschen bieten Platz, Schutz und Raum für eine geeignete Instalation.

Zwickau_-_bus_stop_at_night_(aka)

(Bild: Wikipedia.org)

Besonders praktisch ist an so einer Bushaltestelle ist die beleuchtete Werbetafel. In diesen Kisten hängen meistens nur Plakate, ab und an sieht man aber auch einen eingebauten Monitor. So ist also genug Platz um genügend Technik darin unterbringenn zu können. Nun stand der Ort fest. Aber was kann man mit Werbung alles machen?

Im Bezug auf Bushaltestellen und der dort häufig anzutreffenden jungen Menschan kam ich schnell auf das Thema “AdBusting”

Was ist Adbusting?

10255478_709340395790454_4559736412336928998_o

Erklärung-adbusting

Was ist Adbusting? (Buch Urban Art-Core)_Seite_2

Was ist Adbusting? (Buch Urban Art-Core)_Seite_3     

Buch: Urban Art Core

So war das erste Experiment kleine Sketche zu entwickeln, die Adbusting-Elemente digital umsetzen. Ich wollte die Möglichkeiten mit Schrift zu Spielen, also die Buchstaben zu vertauschen oder zu veränder. Zusätzlich wollte ich eine Zeichen-Funktion. (siehe  Experiment #1) Streetart als Werbe und Probagandafläche. Werbung die sich selber verbreitet. Werbung die nicht als Streetart produziert wird, sondern die sich durch Streetart verbreitet. Dies soll auf einer digitalen und interaktiven Ebene passieren. Doch gibt es digital Adbusting? jein. Es gibt digiale Spielerein mit deinen man digital Adbusting / Streetart / Graffitis erstellen kann. Alles andere geht in die Richtung Photoshop-Manipulationen.

Bildschirmfoto 2014-10-13 um 16.47.07 fattag01

Fat Tag by Katsu
https://itunes.apple.com/it/app/fat-tag-graffiti-deluxe-katsu/id349044241?mt=8

Verauch digital Tripping-Marker. (siehe  Experiment #2)

NSA-in-da-house-Obama

http://www.youtube.com/watch?v=1AUgmiIuFeU&feature=player_embedded

 

Eine andere Idee war in Richtung virtual reality. Es war gedacht 3D Graffitis zu erzeugen, die überall gezeichnet werden und dann per Handy angesehen werden können. Hierzu hätte man Graffiti-Hotspots erzeugen können, die per Beacon einen Hotspot auszeichnen.

ga303-640x400

kinectgraffiti13-640x360

http://graffitianalysis.com

http://www.creativeapplications.net/processing/kinect-graffiti-tool-processing-kinect/


 

Diese Idee wurde schnell verworfen, da es zu aufwendig ist bis Benutzer ihr Handy parat haben und sie dann zusätzlich noch eine App installieren müsssen. Darüber hinaus wäre es mit der Occulus Rift viel spannender und viel sinnvoller umzusetzen.

Als ich einen kleinen Versuch machte um einen Text hinter einer Regenwand aus Buchstaben zu verstecken, erinnerte mich das ganze an einen Glitch.

(siehe  Experiment #3)

Ich begann mehr in Richtung Glitch zu arbeiten und versuchte selber einen Sketch zu schreiben, der Text hinter einem Glitch verbirgt. Hierzu machte ich mir neue Gedanken über die Interaktion mit dem Benutzer. Ich wollte sie hierbei so gering wie möglich halten. Ich kam auf das Sehen. Auf den Unterschied zwischen bewusst Hinsehen und dem Sehen aus dem Augenwinkel. (siehe  Experiment #4). Dieser Versuch war so spannend, dass ich daran weiter arbeiten konnte und es zu einen meiner Hauptprojekte zu machen.(siehe //ENDPRODUKTE //HAUPTPROJEKTE -> Look Ad Me )

Der Designblick kam immer näher und ich überlegte etwas gezielt für den Designblick zu entwerfen. Zur gleichen Zeit wurden auch die Designblickplakate fertig. Auf diesesn Plakaten waren viele verschiedene Gegenstände, die mit unserem Studium zutun hatten.

DB_Final_Rechts DB_Final_Links

Diese Plakate brachten mich auf die Idee ein interaktives Poster für den Designblick zu entwerfen und zu erstellen. Ich nahm verschiedene Gegenstände aus dem Sortiment des Posters und fühgte ihnen naturalistische Funktionen zu. (siehe  Experiment #5). Diese Arbeit hatte genug Potenzial um sie zu einer Hauptarbeit zu machen. Sie trägt den simplen namen Interactive Poster. (siehe //ENDPRODUKTE //HAUPTPROJEKTE -> Interactive Poster ). Da das digitale Plakat von sich aus nicht viele Signale an die Leute in der Umgebung senden sollte entschied ich mich das Plakat mit einer Art digitalem Spiegel auszustatten. Hierfür nutzte ich die Kinect. Da diese recht gute Bilder aufnimmt, musste ich die “Welt” abstrahieren, da es sonst Probleme mit dem Datenschutz gegeben hätte. Ich entschied mich für ein einfaches Raster aus vertex(), die ich als Punkt- oder Liniesnraster generieren ließ und so ein abtrahiertes Bild erlangte. (siehe  Experiment #6). Obwohl ich dieses Experiment nur als Teilprojrkt zu der Hauptarbeit Interactive Poster nutzten wollte merkte ich schnell, dass es noch mehr Potenzial gibt.

Ich dachte daran neben dem interaktiven Plakat für den Designblick auch eine Art digitales Gästebuch zu erstellen, basierend auf den Bildern der Kinect. Kein Gästebuch wo die Gäste etwas reinschreiben, sondern ein Gästebuch in der Art eines Fotobuches, mit Fotos der Gäste. So wurde des Projekt meine dritte  Hauptarbeit.(siehe //ENDPRODUKTE //HAUPTPROJEKTE -> Interactive Guesbook ).


 

//SETUP //

Als Software benutzte ich Processing. Welche Plugins oder Librarys ich benutzt habe, kann man im Code sehen oder bei den jeweiligen Arbeiten in der Beschreibung. Die Kinect zusammen mit dem Microsoft Sur40 bildeten meine Hardware. Ich entschied mich den Microsoft Table hochkant an einer Halterung zu montieren, da es einen senkrechten, selbstleuchtenden, mit Touch steuerbaren und der Werbetafel in der Bushaltestelle ähnlichen Monitor ergab. Die Kinect montierte ich oben auf dem Gerät, sodass sie den kompletten Oberkörper des Benutzers aufnehmen konnte. Diese Kombination an Hardware und Software ergab ein beeindruckendes Modul.

Graffblack (1 von 2) Graffblack (2 von 2)

// Experimente //Skizzen //Sketches //

Experiment #1

Ein Wort oder Text sollte per Projektion an eine Wand geworfen werden. Befindet man sich in einem bestimmten Abstand zu der Wand, reagiert die Projektion auf die Anwesenheit einer Person und die Schrift fängt leicht an zu “vibrieren”. So soll die Aufmerksamkeit der Personen im Raum geweckt werden.

Geht man nun noch etwas näher zu der Wand so soll man mit der Schrift interagieren können. /drehen, scalieren, verschieben, löschen, kopieren… )

Zu beginn wollte ich nur testen wie sich Buchstaben verhalten könnten, wenn man sie bewegt. Hierzu habe ich die traer.physics Library verwendet.

Verwendete Librarys:

import traer.physics.*;

adbusting

gummi

Schon beim programmieren des Sketches ist mir aufgefallen, dass es viel zu wenig Möglichkeiten gibt. Man kann aus dem Gegebenen Text kaum etwas anderes sinnvolles oder provokantes bauen, da es nicht genug Anagramme oder Palindrome gibt. Es müssten noch viel mehr Funktionen sein, um Buchstaben zu tauschen, hinzuzufügen, zu löschen oder zu bearbeiten, ansonsten ist der Sketch sinnlos.

Das war nicht das was ich wollte und so blieb dieser Sketch nur ein Experiment.

 

Experiment #2

Versuch digital Tripping-Marker. Es sollte das Verhalten eines Markers immitiert werden, bei dem die Farbe gut läuft.

Verwendete Librarys:

Bildschirmfoto 2015-02-11 um 12.21.44 Bildschirmfoto 2015-02-11 um 12.29.25 Bildschirmfoto 2015-02-11 um 12.28.13

tripping

 

Experiment 2.2: Das Malen auf einem Plakat

Verwendete Librarys:

Bildschirmfoto 2015-02-11 um 12.33.20 Bildschirmfoto 2015-02-11 um 12.34.09

Auch dieser Versuch stelle sich als spannend jedoch sehr auch als sehr kurzlebig herraus und war auch nicht mehr als ein Experiment.

 

Experiment #3

Bei diesem Sketch wollte ich eigentlich einen Text hinter einem Buchstabenregen verstecken, den man mit seinen Händen auffangen kann und so den Text im Hintergrund lesen kann. Jedoch brachte mich dieser Sketch auf eine neue Idee die ich für spannender hielt und die ich dann auch weiter verfolgte.

Verwendete Librarys:

regen

Experiment #4

Ich begann mehr in Richtung Glitch zu arbeiten und versuchte selber einen Sketch zu schreiben, der Text hinter einem Glitch verbirgt. Hierzu machte ich mir auch neue Gedanken über die Interaktion mit dem Benutzer. Ich wollte sie hierbei so gering wie möglich halten. Ich kam auf das Sehen. Auf den Unterschied zwischen bewusst hinsehen und dem Sehen aus dem Augenwinkel. Dieser Versuch war so spannend, dass ich daran weiter arbeiten konnte und es zu einen meiner Hauptprojekte zu machen.(siehe //ENDPRODUKTE //HAUPTPROJEKTE -> Look Ad Me ).

Um herraus zu finden ob jemand auf den Monitor sieht habe ich die eingebaute Kamera und die opencv.-Facedetection genutzt. Erkennt es ein Gesicht, dann es sich der Glitch auflösen und wenn nicht soll es glitchen. Der glitch lässt sich dank der glitchP5.-Library leicht erzeugen und steuern. Bei Versuchen zeigte sich, dass es am besten funktioniert, wenn das Programm nach einem Frontalgesicht suchen soll. Es könnte auch ein halbes Gesicht finden, jedoch würde es dann auch ein Gesicht finden, wenn man aus dem Augenwinkel auf den Monitor sieht und so gäbe es keine Abgrenzung mehr. Der Text der zu sehen ist wurde per txt.-Dokument geladen und ist austausbar.

Verwendete Librarys:

import gab.opencv.*;
import processing.video.*;
import java.awt.*;
import glitchP5.*;

glitch_text

 

Experiment #5

Ich suchte mir einige spannende Objekte aus den zwei Plakaten aus. Meine Wahl fiel auf: den Farbfächer, Fillament, Arduino, Radiergummie und ein Block. Zusätzlich nahm ich noch ein iPad, Bilderrahmen, Blatt und den Designblick-Schriftzug dazu. So hatte ich genug Objekte um das Plakat zu füllen aber auch damit man genug zum entdecken und zum spielen hat. Bevor ich begann das Plakat zusammen zu setzen, entwickelte ich für viele der Gegenstände eigene kleine Sketche um deren Funktion zu testen und zu entwickeln. Das dies so viele waren hier ein kleines Beispiel:

Verwendete Librarys: —

Bildschirmfoto 2015-02-11 um 14.16.06

(siehe //ENDPRODUKTE //HAUPTPROJEKTE -> Interactive Poster ).

 

Experiment #6

Ich dachte daran neben dem interaktiven Plakat für den Designblick auch eine Art digitales Gästebuch zu erstellen, basierend auf den Bildern der Kinect. Hierzu verwendete ich die Tiefendaten, die man über der Kinect erhalten kann. Ich entschied mich für ein einfaches Raster aus vertex(), die ich als Punkt- oder Liniesnraster generieren ließ und so ein abtrahiertes Bild generierte. Anschließend fügte ich ein Menü hinzu um alles einfach und schnell verändern zu können. Das Tiefenbild lässt sich am alle 3 Achsen drehen und skalieren. Man kann auch den Modus der vertex(); ändern, um von einem Punnktraster zu einem Linienraster zu wechseln. Zusätzlich lässt sich die Strichstärke und die Rastergröße verändern. Möchte man alles auf den Ausgangszustand zurück setzten, so muss man nur den Reset-Button drücken. Das Menü und die Knöpfe basieren auf controlP5.

(siehe //ENDPRODUKTE //HAUPTPROJEKTE -> Body Guestbook ).

Verwendete Librarys:

import SimpleOpenNI.*;
import processing.opengl.*;
import controlP5.*;

kinect2

49Posterkinect

 


 

 

//ENDPRODUKTE // HAUPTPROJEKTE

Look Ad Me

Der Name verrät schon, dass es darum geht das man hinschaut…   oder auch nicht.

( Interaktive Werbung die auf die Blicke der Personen reagiert.)

Look Ad Me ist als Screensaver oder Wallpaper gedacht. Es würde sich vermutlich über Geektool als Schreibtischhintergrund auf OS X einbinden lassen, läuft aber aktuell nur über Java. Es ist als witzige Apple-Werbung gedacht, die auf die Blicke der umgebenen Personen reagiert. Blickt man nicht auf den Bildschirm, so wird ein glitchender Windows 8 Screen gezeigt. Dies lässt sich aus dem Augenwinkel gut erkennen und zieht die Aufmerksamkeit auf sich. Ist man nahe genug vor dem Bildschirm und schaut ihn direkt an, so löst sich der Glitch auf und es erscheint das Apple-Logo. Diese Art von Werbung ließe sich auch gut an Monitoren im Öffentlichenraum realisieren an Stellen, andenen man vorbei läuft und nur wenige Leute stehen bleibt.

Verwendete Librarys:

import gab.opencv.*;
import processing.video.*;
import java.awt.*;
import glitchP5.*;

Sieht man nicht hin:

win

Direkter Blick auf den Display:

apple

 


 

Interactive Poster

( Interaktives Poster, welches mehr kann als nur hängen.)

,sfdkjgvkljsdhvDas Interactive Poster ist eine digitale Variante des Plakates der Werschau Designblick 2015. Im Gegensatz zu der normalen Variante des Plakates, bietet die digitale und interaktive Version viel mehr. Genauso wie das normale Plakat verfügt die digitale Variante über einen plakativen Aspekt. Dazukommen die ganzen interaktiven Elemente. Fast alle Objekte lassen sich individuell verschieben und plazieren. Genau so wie sich fast alle Objekte bewegen lassen, so haben auch fast alle eine Funktion. Vom Arduino, welches Sound macht, wenn man es berührt bis hin zu dem ipad, auf welchen man den Trailer unserer Werkschau, den Lorenz Wetscher und Julian Leupold erstellt haben, ansehen kann. So kann jeder der vorbei geht etwas daran rum spielen, aber auch in die Gestaltung eingreifen, indem er einfach die Objekte neu plaziert. Jedoch haben die Benutzer nicht 100% freie Hand. Alles außer den Schriftzug, dem Arduino und dem Zettel lassen sich bewegen. Den Schriftzug kann man zwar bewegen, jedoch schnalzt er nach einiger Zeit zurück auf seinen Ausgangpunkt. Man kann auch für andere Leute eine Nachricht hinterlassen, denn es gibt einen Zettel auf dem man malen kann. Der Nachfolger malt entweder etwas dazu oder radiert es einfach weg. Doch wie erkennen die Leute, das es sich um ein interaktives Plakat handelt? Ist man nahe genug an dem Plakat, so nimmt einen die Kinect auf, in einem Punktraster und man kann sich im Bilderrahmen sehen. Das bewegt die Leute etwas näher zu kommen. Als nächstes fällt der Play-Button auf dem iPad auf. Wir alle kennen diese Buttons und wollen sie am liebsten drücken. Drückt man diesen wird eben der Trailer abgespielt, wie oben schon erklärt. Ist diese Hürde erstmal überwunden, so testen die Benutzer nun ganz von alleine alle anderen Objekte auf Funktionen oder Eigenschaften. Was man auch nicht vergessen darf, es leuchtet. Das plakat ist ein Monitor und leuchtet von sich aus, was schon Aufmerksamkeit auf sich zieht.

Verwendete Librarys:

import beads.*;
import traer.physics.*;
import processing.video.*;
import SimpleOpenNI.*;
import processing.opengl.*;
import controlP5.*;

 


 

Body Guestbook

screenshot-plakat-kinect( Ein interaktives Guesbook, welches die Personen die zu Gast waren aufnimmt und als Plakat speichert.)

Das Body Guestbook ist eine Instalation mit der der Benutzer spielen kann. Es ist zunächst ein leeres Plakat für die Werkschau Designblick. Tritt jemand vor die Instalation sieht er sich selber abstrahiert und bestehend aus Punkten auf dem Bildschirm. Nun kann er mit seinem “Ich” spielen. Per Drop-down-Menü lassen sich verschiedene Drehungen, Einstellungen oder Skalierungen vornehmen. Bei der Benutzung des Reset-Button setzt man das ganze auf den Ausgangspunkt zurück.

Betätigt der Benutzer jedoch den Photo-Button oben rechts in der Ecke, so friehrt das Bild für 20 Sekunden ein und man kann sich betrachten. Nach Ablauf dieser Zeit spiegelt der Bildschirm die aktuellen Bewegungen der Person wieder. Darüber hinaus wird jedesmal, wenn der Photo-Button benutzt wird das Standbild gespeichert und in einem Ordner in Sketchfolder plaziert. So lassen alle Besucher nach der Veranstaltung ihre geschossenen Bilder als “Gästebucheintrag” zurück. Diese Bilder kann man nun manuell oder automatisiert auf dem Posterlayout plazieren und man erhält ein Plakat mit den Personen, die die Veranstaltung besucht haben.

Verwendete Librarys:

import SimpleOpenNI.*;
import processing.opengl.*;
import controlP5.*;

Posterlayout // Poster mit “Gästebucheinträgen” // Poster mit Screenshot

Poster_leer jetztversion mit Poster_display

Variationen:

Variation1 222222 3333

 

Benutzung:

Bildschirmfoto 2015-02-12 um 01.33.38 Bildschirmfoto 2015-02-12 um 01.33.33 Bildschirmfoto 2015-02-12 um 01.41.11

Bildschirmfoto 2015-02-12 um 01.41.26

 

Video zur Benutzung:

 


 

 

// AUSBLICK //

Viele der Experimente lieferten sehr spannende und erfolgreiche Ergebnisse. Die Endprodukte/Hauptarbeiten laufen und funktionieren auf dem aufgestellten Sur40. Als nächstes wäre der Sprung in die Realität in Städte möglich und denkbar.

 

// DOWLNLOAD //

Die Codes der Hauptarbeiten gibt es hier: (Download gültig bis: 15.02.15)

https://spideroak.com/storage/NV4XG5DVMZTA/shared/1095566-2-1003/Meixner.zip?74d92dfd8a8706c9ff63bc2935d9e77e

 

CREDITS //

Dominik Meixner
Matrikelnummer //00210212