Sound als Input
Die Minim Library ermöglicht die Integration von Sound in Processing. Uns interessiert vor allem die Möglichkeit, Klang als Eingabemodalität zu verwenden. Dazu sind vor allem vier Methoden sehr hilfreich. Für diese Methoden werden im Folgenden Beispiele gegeben.
Über die Lautstärke haben wir die einfachste Methode festzustellen, wie viel (klangliche) Aktivität in einer Umgebung herrscht. Die Werte, welche uns durch die Minim Library mit der Funktion obj.left.level()
bzw. obj.right.level()
zurückgegeben werden ist dabei proportional zur Lautstärke und im Bereich zwischen 0 und 1. Das Beispiel zeigt sowohl das direkte Auslesen wie auch eine zeitliche Kumulation der Lautstärke-Parameter.
import ddf.minim.*;
Minim minim;
AudioInput in;
float amountOfNoise = 0;
void setup() {
size(640, 480, P3D);
minim = new Minim(this);
//Open the audio input
in = minim.getLineIn();
}
void draw() {
background(amountOfNoise);
stroke(255);
rect( 0, 0, in.left.level()*width, 100 );
rect( 0, 100, in.right.level()*width, 100 );
if(in.left.level() > 0.2 || in.right.level() > 0.2) {
amountOfNoise++;
} else if(amountOfNoise > 0) {
amountOfNoise--;
}
text(amountOfNoise, 150, 20);
}
Als Wellenform einer Klangquelle wird die grafische Darstellung einer Schwingung im Bezug zur Zeit bezeichnet (Wikipedia Eintrag).
import ddf.minim.*;
Minim minim;
AudioInput in;
void setup() {
size(640, 480, P3D);
minim = new Minim(this);
//Open the audio input
in = minim.getLineIn();
}
void draw() {
background(0);
for(int i = 0; i < in.bufferSize() - 1; i++) {
stroke(0,0,255);
line( i, 200, i, 200 - in.left.get(i+1)*50 );
stroke(255,0,0);
line( i, 280, i, 280 + in.right.get(i+1)*50 );
}
}
Mit Hilfe einer FFT (Fast Fourier Transformation) lässt sich ein Audio-Signal in seine Frequenzanteile zerlegt. Dadurch ist es möglich festzustellen, welcher Frequenzbereich (Tonhöhe) in einem Signal am meisten ausgeprägt ist. Wenn diese Frequenzen analysiert werden lässt sich feststellen, welcher Ton "dahinter steht".
import ddf.minim.analysis.*;
import ddf.minim.*;
Minim minim;
AudioInput in;
FFT fft;
int worldRecord = 0;
int threshold = 100;
void setup() {
size(640, 480, P3D);
minim = new Minim(this);
//Open the audio input
in = minim.getLineIn();
//Create FFT object
fft = new FFT( in.bufferSize(), in.sampleRate() );
}
void draw() {
background(0);
stroke(255);
fft.forward( in.mix );
for (int i = 0; i < fft.specSize(); i++) {
if (fft.getBand(i) > threshold && fft.getBand(i) > worldRecord) {
worldRecord = i;
}
line( i, height, i, height - fft.getBand(i)*8 );
}
ellipse(worldRecord, 20, 20, 20);
text(fft.getBand(worldRecord), worldRecord+10, 20);
}
<!DOCTYPE HTML>
<html>
<head>
</head>
<body>
<script type="text/javascript">
// We need to check if the browser supports WebSockets
if ("WebSocket" in window) {
// Before we can connect to the WebSocket, we need to start it in Processing.
// Example using WebSocketP5
// http://github.com/muthesius/WebSocketP5
var ws = new WebSocket("ws://localhost:8080/p5websocket");
} else {
// The browser doesn't support WebSocket
alert("WebSocket NOT supported by your Browser!");
}
// Now we can start the speech recognition
// Supported only in Chrome
// Once started, you need to allow Chrome to use the microphone
var recognition = new webkitSpeechRecognition();
// Be default, Chrome will only return a single result.
// By enabling "continuous", Chrome will keep the microphone active.
recognition.continuous = true;
recognition.onresult = function(event) {
// Get the current result from the results object
var transcript = event.results[event.results.length-1][0].transcript;
// Send the result string via WebSocket to the running Processing Sketch
ws.send(transcript);
}
// Start the recognition
recognition.start();
</script>
</body>
</html>
// Based on the example from Florian Schulz http://stt.getflourish.com.
import muthesius.net.*;
import org.webbitserver.*;
WebSocketP5 socket;
String input = "";
color c = color(0,0,0);
void setup() {
size(640, 480);
socket = new WebSocketP5(this, 8080);
}
void draw() {
background(c);
textSize(20);
text(input, 20, 60);
}
void stop() {
socket.stop();
}
void websocketOnMessage(WebSocketConnection con, String msg) {
println(msg);
msg = trim(msg);
input = msg;
if (msg.equals("black") || msg.equals("schwarz")) {
c = color(0,0,0);
}
if(msg.equals("red") || msg.equals("rot")) {
c = color(255,0,0);
}
}
void websocketOnOpen(WebSocketConnection con) {
println("A client joined");
}
void websocketOnClosed(WebSocketConnection con) {
println("A client left");
}