Recognition Composition

Recognition Composition, Face-Defector oder Anonymizer – einen endgültigen Namen für das Werk habe ich noch nicht gefunden.

Unter einem dieser Namen stellte ich das Werk bereits mehrfach aus:

  • DAS Weekend Berlin
  • Art Buzzl Regensburg
  • Galerie Bauchhund
  • Berliner  Mitteclub

Das Programm nimmt Bilder von einer Webcam auf und analysiert sie mit OpenCV haarcascades, um Gesichter zu finden. Die Gesichter werden ausgeschnitten und mit einem Balken „anonymisiert“. Auf einer Leinwand werden zig dieser Bilder angezeigt und neu erkannte Gesichter sofort hinzugefügt. Auf einem zweiten Bildschirm wird einer Überlagerung aller Gesichter angezeigt. Starrt man lange genug in die Kamera wird die Überlagerung dem Betrachter immer ähnlicher. Bei zwei Betrachtenden entsteht eine Mischgestalt. Schafft man es die gesamte Leinwand mit dem (den) eigenen Gesichter voll zu machen, druckt ein Kassenbon-Nadeldrucker ein zweifarbiges Bild des gemorphten Gesichts mit Datum und Uhrzeit. Dabei handelt es sich um ein Unikat, da das Bild nach dem Druck wieder verändert wird.

Sourcecode:

Auch eine Methode das Gesicht zu verwaschen:

private boolean washFace(File file, int x, int y, int r) {

	int width = 480, height = 480;
	File washFace = new File(Constants.washFacePointer);
	BufferedImage bi = new BufferedImage(width, height, BufferedImage.TYPE_INT_ARGB);
	BufferedImage bi2 = new BufferedImage(640, 480, BufferedImage.TYPE_INT_ARGB);

	try {
		bi = ImageIO.read( washFace );
	} catch (IOException e1) {
		bi = new BufferedImage(width, height, BufferedImage.TYPE_INT_ARGB);
	}

	try {
		bi2 = ImageIO.read( file );
	} catch (IOException e1) {
		return false;
	}

	Graphics2D ig2 = bi.createGraphics();
	ig2.setRenderingHint(RenderingHints.KEY_ANTIALIASING, RenderingHints.VALUE_ANTIALIAS_ON);
	AffineTransform transform = new AffineTransform();
	double scale = 480.0 / (double)(r) ;
	transform.scale(scale,scale);
	transform.translate(-(double)x,-(double)y);
	float alpha = .05f;
	ig2.setComposite(AlphaComposite.getInstance(AlphaComposite.SRC_OVER, alpha));
	ig2.drawRenderedImage( bi2, transform );	
	try {
		ImageIO.write(bi, "JPEG", washFace);
	} catch (IOException e) {
		e.printStackTrace();
	}
	return true;
}

Der Druck des Kassenbons erfolgt hier wie bei GunPrinter mit Hilfe von IrfanView:

package gun;

import java.io.File;
import java.io.IOException;

public class PrintThread extends Thread implements Runnable {

	private File file = null;

	public PrintThread(File file) {
		this.file  = file;
	}

	@Override public void run() 
	{ 

		if (file.exists() && file.canRead() ) {

			try {
				ProcessBuilder builder = new ProcessBuilder( "cmd", "/c", "irfan.bat", file.getAbsoluteFile().toString() ); 
				builder.directory( new File(System.getProperty("user.dir")+System.getProperty("file.separator")+"sys"+System.getProperty("file.separator")+"irfan") ); 
				builder.start();

			} catch (IOException e1) {
				e1.printStackTrace();
			} 

		}

	}


}
@echo off
IrfanViewPortable.exe %1 /print="EPSON-TMU220B"
if ERRORLEVEL 1 (echo Fehler) else (echo OK)

CourageKaraoke

Alle Jahre wieder: 48 Stunden Neukölln. Diesmal zum Thema Courage das Programm CourageKaraoke, bei dem sich die Nutzer*innen verausgaben sollen. Nebenbei müssen sie einen rosafarbenen Gummihandschuh tragen und ihren Mittelfinger zeigen. Der Computer fordert zur Wutentladung vor laufender Kamera auf. Die erzeugten Videos werden automatisch bei Youtube veröffentlicht. Wie man den Videos entnehmen kann, hat das Programm nicht so ganz gut funktioniert…

https://youtu.be/TU-vFpHGjPE

Setup:

  • Windows-Computer
  • zwei Webcams
  • Mikrofon
  • Lautsprecher
  • Internetverbindung
  • Gummihandschuh

Ein C++-Programm unter Verwendung der OpenCV-Library macht Fotos mit der Frontkamera und erkennt in den Bildern rosarote Mittelfinger. Eine Java-Applikation überwacht die Lautstärke und sorgt für das UserInterface und den Programmablauf (Ansagen, Fragestellung und schließlich Upload des Films von der zweiten Kamera).

Pfeifen Sie nach dem Sprechton

Mit Jakob Friedl habe ich im Jahre 2007 eine interaktive Maschine gebaut, die Passanten im Fürther Korridor zum Pfeifen aufforderte. An die 400 zehnsekünder wurden aufgenommen. Leider hat sich die Maschine bei der zweiten Ausstellung ein Jahr später selbst zerlegt. Die Wackelbilder wurden einzeln mit einer billigsten Webcam aufgenommen und parallel dazu Ton mitgeschnitten, natürlich passt das nicht ganz zusammen. Eigentlich sollte ein Algorythmus den korrekten Pfeifton erkennen. Das war den Usern aber zu schwierig, so dass das Feature entfallen musste. Für mehrere Wochen düdelte der Rechner vor sich hin und wurde nicht geklaut oder abgeschaltet – die Hardware wollte vermutlich keiner mehr haben.

Wer wirklich will erfährt hier mehr darüber: http://jakob-friedl.de/?p=547