Was hat die Revolution der Datenschutzgesetzgebung für Wurzeln, was für Auswirkungen? Welches Urheberrecht gilt im digitalen Raum? Der Versuch einer Annäherung ist hier zu lesen.
Positionspapier
Im Moment geht die Tendenz wieder in Richtung des digitalen Unterrichts, wenngleich zum Glück
das zusammen Musizieren vor Ort noch nicht gänzlich unmöglich geworden ist. Die digitalen
Möglichkeiten haben bereits großes geleistet; unter Musikern und Forschern besteht hingegen
weitgehend Konsens, dass Apps und Tools ein Live Musizieren nicht ersetzen können.
Bei jedem digitalen Werkzeug sollte man sich dementsprechend fragen, ob es überhaupt etwas
vorher schon vorhandenes verbessert. Digitalisierung darf kein Selbstzweck sein; dennoch liegen im
„blended learning“ viele Chancen die besonders in der Krise von Bedeutung sind.
Da unsere Musikschule dezentral in einem Flächenlandkreis organisiert ist, kann das Internet sicher
für die Zusammenarbeit hilfreich sein. Stefan Muhle, Staatssekretär im Niedersächsischen
Ministerium für Wirtschaft, Arbeit, Verkehr und Digitalisierung spricht von einer Schlüsselrolle der
digitalen Infrastruktur im Flächenland Niedersachsen.
Die öffentlichen Musikschulen in Deutschland repräsentieren einen Teil der kulturellen Werte
unserer Gesellschaft. Unser Bildungsauftrag erlaubt, frei von privatwirtschaftlichen Interessen die
Kreativität, Persönlichkeit, Ausdauer, Konzentration soziale Kompetenz unserer SchülerInnen zu
Entwickeln und zu fördern. Diese Leitlinie sollte sich auch in einem Datenschutzkonzept
niederschlagen, welches unsere eigene Darstellung als berechtigtes Interesse nicht außer acht lässt.
Unsere heutige globalisierte Informations- und Wissensgesellschaft ist ohne einen kontinuierlichen
Datenaustausch kaum vorstellbar. Allerdings kommt es dabei immer wieder zu Pannen und
Mißbrauch. Es passiert, dass Patientendaten versehentlich veröffentlicht, oder Kontodaten
systematisch geklaut werden. Aus diesem Grund wird das Thema Datenschutz mehr denn je
diskutiert. Aber was bedeutet Datenschutz eigentlich? Der Begriff „Datenschutz“ kann leicht
mißverstanden werden. Denn es geht nicht direkt um den Schutz von Daten vor Verlust oder
Diebstahl. Dieses eher technische Themenfeld nennt sich Datensicherheit. Datenschutz bezieht sich
vielmehr auf den Schutz der Menschen, deren Daten erhoben und verwendet werden. Dabei wird
von dem Grundsatz ausgegangen, daß jeder Mensch selbst bestimmen sollte, wem er welche seiner
Daten bekannt gibt. Zu den schutzbedürftigen Daten gehören einerseits persönliche Angaben wie
Name, Anschrift oder Familienstand; sowie andererseits sachliche Angaben wie Autokennzeichen
oder Eigentumsverhältnisse. Die zentrale Aufgabe des Datenschutzes ist es, sicherzustellen, daß der
Umgang mit solchen Daten niemanden schädigt oder unnötig einschränkt. Mit der Einführung der
elektronischen Datenverarbeitung Mitte der 60er Jahre erlangte das Thema Datenschutz erstmals
große Bedeutung. Mit den neuen Systemen konnten insbesondere staatliche Behörden so viele
personenbezogene Daten verwalten und verknüpfen wie nie zuvor. Zunehmend wurde bewußt, daß
der Umgang mit solchen Daten geregelt werden muß um einen Mißbrauch zu verhindern.
Infolgedessen wurden seit Ende der 70er Jahre in Deutschland sowohl für die öffentliche
Verwaltung als auch für den gewerblichen Bereich Datenschutzregeln geschaffen. Zentraler
Bezugspunkt ist dabei das Recht auf informationelle Selbstbestimmung – also das Recht, selbst über
die Verarbeitung seiner Daten bestimmen zu können. Allerdings hat sich der Datenverkehr in den
letzten Jahrzehnten weit über die nationalen Grenzen ausgeweitet. Dank technischer Entwicklungen
wie dem Internet können Daten heute ohne großen Aufwand weltweit ausgetauscht werden. Da
viele Daten auch in Ländern mit weniger strengen Datenschutzregeln verarbeitet werden, lassen
sich die deutschen Datenschutzbestimmungen kaum durchsetzen. Technische Entwicklungen wie
soziale Netzwerke oder elektronische Zahlungsmethoden schaffen zudem immer neue
Möglichkeiten zur Datensammlung. Der technische Fortschritt ist derart dynamisch, dass die
meisten gesetzlichen Regelungen der tatsächlichen Entwicklung stark hinterherhinken. Die folgende
Übersicht skizziert die Entwicklungen im Internet seit der Zeit des „Filesharing“:
1998 Bill Clinton unterzeichnet den DMCA „Digital Millennium Copyright Act“ - dieser enthält das „Safe
Harbor“ Abkommen. „Safe Harbor“ erlaubt den Export von Nutzerdaten in Länder mit niedrigeren Standards –
Europa nach USA – wenn die nutzenden Firmen sich auf die vereinbarten Standards verpflichten.
2013 Edward Snowden schildert, wie NSA auf Konzerndaten von Google und Facebook zugreift. Max Schrems
verklagt die irische Datenschutzbehörde. Der Fall geht zum Europäischen Gerichtshof.
2015 erklärt der Europäische Gerichtshof das derzeitige Datenschutzabkommen für Datentransfer zwischen der
EU und den USA für unzulässig und rechtswidrig.
2016 tritt als Nachfolger von „Safe Harbor“ der EU-US Privacy Shield in Kraft. Die EU-Datenschutzreform
führt zum Erlass der Datenschutz-Grundverordnung DS-GVO – welche 2016 beschlossen wurde und ab 2018
galt.
2020 wird der EU-US Privacy Shield vom EuGH durch das Schrems II – Urteil für ungültig erklärt.
Die DSGVO ...
...vereinheitlicht seit dem 25. Mai 2018 EU-weit die Datenschutzbestimmungen. Einher ging eine
Erhöhung der Bußgelder. Kernprinzip ist erneut die informationelle Selbstbestimmung. In Kapitel 2
Artikel 5 bis 11 der Verordnung 3 werden die grundlegenden Ziele ausformuliert: Rechtmäßigkeit,
Verarbeitung nach Treu und Glauben, Transparenz. Der Zweck der Datenerhebung muß festgelegt,
legitim und transparent sein. Es sollen nur die Daten erhoben werden, die auch zum gegebenen
Zweck angemessen und notwendig sind – also möglichst nur wenige. Personenbezogene Daten die
falsch sind müssen unverzüglich gelöscht oder berichtigt werden. Die Dauer der Speicherung ist nur
so lange gestattet, wie es für die Verarbeitungszwecke notwendig ist. Die Sicherheit der
personenbezogenen Daten muß für die Zeit der Speicherung gewährleistet sein. Gibt man seine
Daten preis, soll man als „betroffene Person“ sowohl bestimmen können was gesammelt wird, als
auch wie und zu welchem Zweck die Daten gesammelt werden. Datenverarbeitende Stellen müssen
Transparenz gewähren und unterliegen der Informationspflicht. Eine Verarbeitung
personenbezogener Daten ist rechtmäßig, wenn die betroffene Person ihre Einwilligung für die sie
betreffenden Daten für einen oder mehrere bestimmte Zwecke gegeben hat. Die Verwendung von
Daten muß also möglichst ökonomisch, für die betroffenen Personen transparent und auf bestimmte
Zeiträume und Zwecke beschränkt erfolgen. Am besten und sichersten erfolgt die Einwilligung der
betroffenen Person durch eine schriftliche Erklärung, die keine anderen Sachverhalte betrifft
(Artikel 7 4 ). Mit 16 5 erlangen Jugendliche Ihre informationelle Selbstbestimmung. Vorher ist die
Verarbeitung von Daten nur rechtmäßig, wenn die Einwilligung durch den Träger der elterlichen
Verantwortung oder mit dessen Zustimmung erfolgt.
Dies sind die Rahmenbedingungen unter denen eine sinnvolle Datenverwendung durch die
Musikschule gegeben wäre. Was die DSGVO angeht gibt es bereits einige Beispiele anderer
Musikschulen, die entsprechende Paragraphen in ihre Satzungen und Informationsblätter in ihre
Anmeldebögen integriert haben. Damit ist die alltägliche Datennutzung der Musikschule abgedeckt;
hingegen bleibt die Frage offen wie mit Facebook, Instagram und Youtube umgegangen wird. Für
das rechtmäßige Interesse der besseren Darstellung der Musikschule wäre ein Auftritt
wünschenswert. Eine mögliche Antwort ist ein Auftritt ohne die Verwendung personenbezogener
Daten 6 , oder nur solcher von Lehrern die dazu eingewilligt haben. Wen müssen wir denn eigentlich
Fragen, bevor wir etwas auf Facebook oder Instagram posten dürfen? So lange keine
personenbezogenen Daten unserer Schutzbefohlenen im Spiel sind, hauptsächlich uns selbst. Finden
wir jemanden, der die Werte der Musikschule und wofür sie steht angemessen in die sozialen
Netzwerke transportieren kann? Ein positives Beispiel ist die Werbekampagne der Berliner
Verkehrsbetriebe 7 , deren Bahnen immer noch zu spät kommen - aber ihr Image hat sich durch
Auftritte in sozialen Netzwerken komplett gewandelt. Wandeln sich die BVG vom notwendigen
Übel zum liebevollen Begleiter, werden wir aus der Versenkung erst sichtbar – und es gäbe viele
positive Facetten die zu zeigen sich lohnt. Die Generation, die jetzt gerade als Eltern an der
Musikschule ankommt, nimmt wohl als Nachrichtenkanal tendenziell immer weniger die
Lokalzeitung als in zunehmendem Maß digitale Kanäle wahr. Hier ergibt sich die Gelegenheit,
unsere umfassende Kompetenz und Vernetzung zielgerichtet darzustellen.
Des Weiteren gibt es die gerade sehr moderne Möglichkeit der „kollaborativen Musikproduktion
über Distanz“ - gemeinsam online Musik machen. Auf Youtube findet sich ein Clip der Musikschule
Böblingen, der aus SchülerInnen-Clips zusammengeschnitten wurde. Solche Projekte lassen sich
mit einer zweckbestimmten Einwilligung der betroffenen Personen realisieren.
Grundsätzlich ist das Fotokopieren aus veröffentlichten Werken der Musik – also aus gekauften
Notenheften – nicht gestattet. Dies ist im Urheberrechtsgesetz im §53 Abs. 4 11 geregelt. Im Gesetz
wird der Vorgang „Vervielfältigung“ genannt. Absatz 4 Paragraph b Satz 3 erlaubt hingegen das
Abschreiben eines Werks.
Für die Zwecke der Wissenschaft oder des Unterrichts macht das Gesetz eine Ausnahme vom
Vervielfältigungsverbot: Im §60a Absatz 1 12 steht, daß „zur Veranschaulichung des Unterrichts und
der Lehre an Bildungseinrichtungen [...] zu nicht kommerziellen Zwecken bis zu 15 Prozent eines
veröffentlichten Werkes vervielfältigt, verbreitet, öffentlich zugänglich gemacht und in sonstiger
Weise öffentlich wiedergegeben werden“ darf. Dies gilt für Lehrende, SchülerInnen, Prüfer sowie
dritte; wenn der Unterricht davon profitiert. Wichtig ist im §60 wiederum der Nebensatz, dass
„sonstige Werke geringen Umfangs“ und vergriffene Werke vollständig genutzt (kopiert) werden
dürfen.
Es wird wohl davon ausgegangen, daß die Musikschulen als gewachsene Struktur des öffentlichen
Lebens für den Unterricht auf bekannte und veröffentlichte Werke zurückgreifen und sie zu diesem
Zweck bisweilen in Papierform vervielfältigen. So besteht zwischen dem Verband deutscher
Musikschulen und den Verwertungsgesellschaften ein Pauschalvertrag zu Kopierlizenzen. Das
Kopieren erfolgt dann „ohne besondere Genehmigung, aber gegen Zahlung einer Vergütung“.
2017 warb der VDM 14 für einen Pauschalvertrag zwischen VDM, GEMA und VG Musikedition mit
verbesserten Konditionen für öffentliche Musikschulen für das Kopieren von Noten. So sank die
Vergütung nach SchülerInnenzahl um fast die Hälfte. Wenn eine Musikschule diesen Deal
akzeptierte, durften nun „kleinere Werke wie Lieder, Pop-Songs oder vergleichbare abgeschlossene
Werke aus anderen Stilbereichen mit einer Spieldauer von max. etwa 5 Minuten sowie 20 Prozent
von Werken größeren Umfangs“ kopiert werden. Die Musikschulen, welche nicht an dem
Pauschalvertrag teilnehmen, sind angehalten die notwendigen Rechte an Werken einzeln bei der
GEMA zu erwerben.
Neben den im Unterricht hervorragend bewährten Printmedien hat sich im Internet eine Welt der
symbolischen Notationsformate und -programme entwickelt. Bei materiellen Gütern gibt es einen
Zusammenhang zwischen Knappheit und Wert, dieses Verhältnis ist bei immateriellen Produkten
wie Downloads nicht gegeben. Hier sind wenn nicht gegensätzliche, so völlig andere
Verteilungsmechanismen im Gang. Als ein Beispiel sei die „Petrucci Bibliothek“ oder IMSLP 15
genannt, in der sich über 160000 Autographen und Transkriptionen von etwa 20000 Komponisten
als gemeinfreie Musik herunterladen lassen. Mit Web 2.0 ist aus dem Internet ein kollaboratives,
interaktives Medium geworden – jeder Nutzer kann Inhalte und somit auch Noten hochladen; und
so ist unter Anderem MuseScore 16 entstanden. Die Software ist Lizenzfrei und auf alle Endgeräte
portabel. Der besondere Mehrwert entsteht durch die große Internet-Community, in der man nach
Bedarf auf riesige Mengen an Noten aller Instrumentengruppen zugreifen kann. Aber auch
SchülerInnen kann man eine MuseScore-Datei schicken, sozusagen als abspielbares Notenblatt.
Von der Software-Toolchain unabhängig bieten sich pdf-Dateien in einer Cloud als Möglichkeit der
Zusammenarbeit für Fachkollegen gleicher Instrumentengruppen.
Nach der Vorgabe durch die §§10 und 58 Abs. 1 Nr. 5 des NKomVG hat die Vertretung des
Landkreises Rotenburg Wümme als unsere „Mutter“ die Angelegenheiten der Kreismusikschule
über eine Satzung geregelt. Es folgen Auszüge aus dem Niedersächsischen
Kommunalverfassungsgesetz 17 im Hinblick auf die Eingliederung der Kreismusikschule in die
Verwaltung:
§ 1
Selbstverwaltung
(1) Die Gemeinden, die Samtgemeinden, die Landkreise und die Region Hannover (Kommunen) verwalten ihre
Angelegenheiten im Rahmen der Gesetze in eigener Verantwortung mit dem Ziel, das Wohl ihrer
Einwohnerinnen und Einwohner zu fördern.
§ 4
Aufgabenerfüllung der Kommunen
1 Die
Kommunen [...] stellen in den Grenzen ihrer Leistungsfähigkeit die für ihre Einwohnerinnen und
Einwohner erforderlichen sozialen, kulturellen, sportlichen und wirtschaftlichen öffentlichen Einrichtungen
bereit.
§ 140
Eigenbetriebe
(1) Die Kommune hat für ihre Eigenbetriebe Betriebssatzungen zu erlassen.
(2) Für die Eigenbetriebe sind Betriebsausschüsse zu bilden.
(3) 1 Die Vertretung kann den Betriebsausschüssen durch die Betriebssatzung bestimmte Angelegenheiten zur
eigenen Entscheidung übertragen. 2 Ist die Hauptverwaltungsbeamtin oder der Hauptverwaltungsbeamte der
Auffassung, dass ein Beschluss des Betriebsausschusses das Gesetz verletzt, die Befugnisse des Ausschusses
überschreitet oder das Wohl der Kommune gefährdet, so hat sie oder er eine Entscheidung des Hauptausschusses
herbeizuführen.
(4) Die laufenden Geschäfte des Eigenbetriebs führt die Betriebsleitung.
(5) Die Wirtschaftsführung und das Rechnungswesen der Eigenbetriebe richten sich im Übrigen nach den
erlassenen Verordnungsregelungen für Eigenbetriebe nach § 178 Abs. 1 Nr. 12.
Nicht nur verwaltungsmäßige Vorgänge, auch das kulturelle Leben findet immer mehr im digitalen
Raum statt. Im Sinne des §140 Satz 1 wäre dementsprechend vorzuschlagen, der Satzung einen
Paragraph zu gespeicherten Daten hinzuzufügen. Liest man weiter, entsteht fast eine
Notwendigkeit. Rechtmäßige Zwecke der Datenspeicherung die in der Satzung verankert werden
sollten sind etwa Gebührenerhebung und Bekanntmachungen. Des Weiteren fehlen Informationen
über Compliance zur DSGVO und Anschrift des Datenschutzbeauftragten. Manche Satzungen
erwähnen auch die Musikschullehrer als betroffene Personen.
Wie bereits oben erwähnt findet man auch bereits bei der Anmeldung für den Musikunterricht
bisweilen den DSGVO-Hinweis. Es kann nicht schaden, wenn wir unser Anmeldeformular
überprüfen und gegebenenfalls Aussehen, Zugänglichkeit und Vollständigkeit des Formulars
verbessern soweit möglich.
Möglicherweise kann darüber hinaus als berechtigtes Interesse der Musikschule gelten, über
besondere Ereignisse des schulischen Lebens zu berichten und die Tagespresse zu informieren - Im
Internet gilt eine optimierte Darstellung der Webseite als ein berechtigtes Interesse im Sinne von
Artikel 6 Absatz 1 lit. f der DSGVO. Optimal wäre eine Datenschutzerklärung, die dies als
„Datenverarbeitung im Rahmen der Öffentlichkeitsarbeit“ ermöglicht. Hierbei nehmen sich viele
Schulen das Recht heraus, Bilder von schulischen oder gesellschaftlichen Veranstaltungen ohne
gesonderte Einwilligung zu veröffentlichen – Bilder von Einzelpersonen oder Kleingruppen
hingegen werden davon ausgenommen.
Freitag, 15. Januar 2021
Developing a tuner app
Pitch detection in digital audio
First steps towards a tuner
.pdf version
Abstract
A really good tuner shows the user how to tune by being
intuitive. That's a technical requirement towards which this
explanation goes. Some basics are touched and built on the way;
it would't bother if you have already written „hello world“.
„[...] it's just a little coding [...]“
„[...] it's not just the fft [...]“
Fork
[/
// initialize portaudio
err = Pa_Initialize();
if( err != paNoError ) goto error;
/]
1 Why?
Being a guitarist for 30 years, I encountered many ways to get
the Instrument in tune. When looking back I would like to know
how long my guitar was out of tune with me not knowing better...
tuning is daily work and not trivial for the beginner. My first
tuning tool was a thing to whistle about, which had six notes
corresponding to the strings. The sound of this was as far from a
guitar as could be, so the difference in pitch was hard to tell.
Next came the fifth fret method, as I had suffered long enough
from the whistle. A difficult task to handle, using two hands
crossed getting the strings to sound while you adjust the string.
I found it a little easier to get a glimpse on the difference in
pitch with this method, but nevertheless your hearing should be
trained to this. Depending on the guitar, this can be error prone
due to imperfect fretting. As playing evolves, overtones can be
used for tuning. I finally managed to get the guitar in tune
fairly well with overtones and a tuning fork. By this method it
became clear that no guitar can ever be perfectly tuned. The
interplay of string tension, string length, fret positions, nut
and saddle positions is always just as good as it can be. But the
compromise keeps getting better and better, and that's the road
to go.
While being a guitar teacher I realised the weakness of some
tuners concerning the low strings. Especially the low E-string is
a fierce demon that some machines just won't see. Also many cheap
tuners suffer from being chatty and displaying too much in too
little time. Values jump around and can't decide where to go.
[float Figure:

[Figure 1:
Tuning pipe
]
]
2 Evolution of digital tuners
Apart from the whistle, nowadays there are floor tuners, rack
tuners and clip-on tuners. These last could be a landmark in
useability, if they did their job at least acceptable. Depending
on the guitar, an experienced user is necessary - if the
vibration of the guitar is not high enough in amplitude the piezo
of the clip tuner does not get enough input. Still the difficulty
of low strings remained. With the advent of smartphones in almost
everybody's hands, a new age in digital tuning has arrived.
Suddenly a tuner is capable of a calm display and really neat
pitch detection. What's going on? How and why do they accomplish
this - whereas the former generations didn't?
3 Not necessarily from scratch
There are numerous tuner algorithms out there, for various
platforms. So there's definitely no need to write just another
tuner. But the thing with digital audio and signal processing is,
you need to start somehow from scratch to gain a basic
understanding of what is going on „under the hood“. We use Bjørn
Roches Code[footnote:
http://blog.bjornroche.com/2012/07/frequency-detection-using-fft-aka-pitch.html
] to start our way into the „black magic“ of the fft. It's a
tuner written in c and designed to be easy to understand and
follow. The outline of processing is as follows:
• Read audio for fft
• Low pass data
• Apply window function on data
• Apply fft
• Find peak in the data
• Determine frequency based on the peak value
Following this skeleton we will discuss the way of the audio
signal.
[float Figure:

[Figure 2:
ccgt 0.1 in the terminal
]
]
Execution
[/
applyfft( fft, data, datai, false );
/]
4 Digital[footnote:
“digitus” is a word for “finger”, so the term “digital” means
something like “countable with the fingers” - even if today's
machines have a bunch of fingers.
] audio signals
All sounds of the real world, that find their way into the
computer, live there only as numbers. While the vibrations of air
are continuously happening all the time, the computer just gets
one moment of a sound at a time. And every moment of the sound
the computer records is - a number.
[float Figure:
[Figure 3:
Digital sampling
]
]
So if our program records sounds, these vibrations of air somehow
get translated into numbers. The numbers are defined by their
position in time, one position is one number which is called a
sample. The samplerate is how often per second the computer
listens. The unit for this is Hertz.
4.1 Perception of tones, sounds and noises
Let's imagine I produce a particular sound, for example tapping
the pencil against the table. The single sound of this would be a
kind of „tick“. When tapping faster, there would be a faster
sequence of ticks. Above a certain frequency, these ticks would „
collapse“ in our perception - into a tone with a frequency. From
20 Hz on upwards, we would perceive what could perhaps be called
a tone - at least there is a periodic vibration. I'm afraid I
can't do that with my pencil. In musical instruments there are
strings, membranes and lots of other things producing these
periodic vibrations. If you want to listen to the phenomenon of a
series of impulses getting faster and collapsing to a tone,
listen to the intro of „Gamma Ray“ by the krautrocker group
Birthcontrol[footnote:
https://www.youtube.com/watch?v=Vzlv7LFmLMg
]... a synthesizer does the job here.
The human ear is product of a long process of evolution, which
once was one of our life-saving abilities. This means, it can do
lots of really fine scanning and listening. But how is the
computer doing it? On which basis does he work? One prerequisite
- the samplerate - was already mentioned above. There is a fixed
rate of scans per second. If human beings can perceive a tone or
pitch from 20 Hz on upwards ... how often should the computer
sample?
4.2 How the computer listens
The Nyquist - Theorem explains, how often a signal has to be
sampled to be able to represent it digitally. Figure 4[footnote:
freundlicherweise von Peterpall - Eigenes Werk, CC BY-SA 3.0,
https://commons.wikimedia.org/w/index.php?curid=8730560 zur
Verfügung gestellt.
] tries to show, how frequencies above the nyquist frequency
behave. In the middle you see a wave that gets sampled, that has
exactly the frequency of half the samplerate. That is an
important threshold for frequencies that get into the computer.
How come, that you can only represent frequencies up to half of
the samplerate?
[float Figure:

[Figure 4:
Nyquist theorem
]
]
Could the computer hear my pencil tapping at 20 Hz? Yes, if he
only listens frequently enough. Suppose I live directly next to a
street, on which exactly one car per minute passes past my house.
Supposed I listened hard all the time, car noises would become
louder at first. Then - when passing by - a climax is reached.
After that the noise fades away, until the next car is beginning
to come nearer. The level of noise is like a wave. But
unfortunately I sit in front of my computer with headphones on
and therefore cannot hear what is going on around me. Nothing
from the outside world gets to my ears. If I took off my
headphones every 60 seconds to check what's going on, I could get
the impression there are no cars on the street. That would happen
if I accidentally pick the moment when the outside noise is
lowest. It could as well happen I always listen exactly in the
moment when a car is directly in front of my house. Then I might
come to the conclusion, there's a whole lot of traffic. This
misconception of what is going on has its roots in the periodic
nature of my listening on the one hand, and the processes I
listen to on the other hand.
The computer is like me in the example: sampled audio signals are
not continuous, but a bunch of points with nothing between them.
Figure 5 shows this - the high frequencies are very fast “cars”
racing through the points while not really getting noticed. In a
periodic signal incredibly many “cars” are passing by with
different speeds; you can easily get false impressions about the
traffic. As human hearing can sense vibrations up to 20000 Hz, a
samplerate of 20000 would never be enough to represent such high
frequencies. Therefore you might have heard of the famous value
44100 Hz, roughly about the double of perceivable frequencies
plus a little headroom.
The signal inside the computer is not only discrete in time. Also
the strength of the vibration is represented as numbers. The
amplitude of the signal is - after being recorded by the computer
- not continuous any more. The louder a sample, the higher the
number on a given scale. This value represents a step of
loudness, and between the steps there are gaps again. Most audio
data has 8 or 16 bit samples, which means the number for one
sample can be that long or precise.
[/
recorder = new AudioRecord(AUDIO_SOURCE, SAMPLE_RATE, CHANNEL,
AUDIO_FORMAT, BUFFER_SIZE);
/]
If you see the processing of input data as some kind of “hearing”
, so this is a discrete process. The computer cannot be a unity
of perception and processing at the same time like the human
hearing. It's always going to be a finite buffer of numbers that
the computer processes. After finishing the processing, the
result can be viewed and the next buffer will be processed and so
on. Of course this happens very fast - so fast you could think
the process is continuous. The changes happen within
milliseconds. Nevertheless there has to be a defined region of
audio data, on which processing occurs and on which steps of
processing are defined. Here the buffer comes into focus.
4.3 Buffer: One at a time, please
Buffer size determines the amount of audio data on which
calculations are done. Suppose I work in the kitchen of a
restaurant and have the task of peeling potatos. As the potatos
are in the basement, I won't go there for every single potato,
peel it and put it into the water. Normal human beings would
fetch a bag of potatoes. This quantity gets peeled and eaten,
when that is done the next bag is fetched. It is unlikely that so
many potatoes get eaten for one lunch, but never mind the bad
example. The size of the bag is the buffersize for the
processing. The computer gets data all the time, but he can only
deal with it in defined portions. The audio system may need a
fine sample resolution in order to be able to represent the
desired frequencies - but buffer size also has its constraints
and should neither be too big nor too small. Maybe you have
already encountered the problem of latency while recording audio
and then tried to change your buffer size. While doing this you
often see powers of 2 as values.
[/
err = Pa_ReadStream( stream, data, FFT_SIZE );
/]
The easiest case is, your buffer size is equal to your fft size.
Of course there are more refined concepts. But for first we
divide the problem into reading audio data once - and then
analysing around on this “screenshot” of audio.
[float Figure:

[Figure 5:
Discrete values on the time axis
]
]
5 Fourier transformation
5.1 Change dimensions
Having read audio data into the buffer, the numbers are in memory
as time discrete values. They represent vibrations of air at a
given moment in time. Data is ordered on the time axis, and each
value has a certain “height” or amplitude. The imagination of a
waveform might help. The array of audio data is a vector of
numbers with the length of n.

The elements of this vector are float numbers with values from -1
to 1. The cector v is transformed to a vector c of equal length
by the fourier transformation:

After that, again we have a series of numbers of equal length.
But the numbers now represent frequencies, not amplitudes. After
the fourier transformation, the vector c

contains the frequency spectrum of the input signal. There was a
cocktail in your glass before, but now you have all the
ingredients separated in it - at least ideally. The cake was
ready, but now it is backwards engineered and divided into the
parts of its recipe again. The transformation takes amplitudes on
the time axis, and gives you amplitudes on the frequency axis.
See this happening in realtime on a waterfall display, and you
will know what I mean.[footnote:
https://phyphox.org/de/home-de/ software for physical experiments
] Spectral components are plotted as time advances. Dominant
frequencies are highlighted.
[float Figure:

[Figure 6:
Waterfall-display
]
]
But how does fourier transformation really work? What happens to
our input data, that makes it so meaningful afterwards? Let's say
we have a audio buffer of the length 8, and there are even some
values in it:

Fourier transformation would take this as input data:

It then computes the coefficients of sine- and cosine waves.
Fourier believed, that every periodic wave could mathematically
be described as the sum of sinewaves and their integer multiples.[footnote:
https://www.youtube.com/watch?v=7bi5_KC08Kg
] This process is called fourier synthesis. For a periodic
function f(t) with the period T, the definition of the fourier
synthesis is as follows:

The function is built up out of infinite partial functions, every
one depending on the number n. The base frequency of each partial
is t/T in the exponent of e, and n as its integer factor. Ideally
this should add up infinitely. The computer won't reach infinity
with his calculations, and we don't want to wait until he
eventually does. The frequencies of the input signal don't reach
until infinity as well, as it is built of samples and therefore
constrained to the nyquist frequency. So we modify the function
and reduce it to the length of the buffer. Additionally, we don't
want to have a synthesizer that builds soundwaves, but the exact
opposite: We want to determine frequencies in the input signal.
So we apply the inverse of fourier synthesis, the fourier
analysis. This is often called the discrete fourier transform,
because the signal we're working on is not continuous but
discrete. With this said, the vector c gets computed as follows:

Every sample in our input data is now represented by a element v
with the index j in the sum. This means: To get one single
element of the transformed vector c, a operation on the whole
audio buffer occurs. If you write the computation for one element
of c as row, and that for every single element of c, you get the
matrix version of the fourier transformation:

For every row of the fourier matrix, the index k stays constant
while j increases for every column. This gives a zero line as
first line, integer multiples of 1 in the second line, integer
multiples of 2 in the third line and so on. The first column is
zero, because the index j always starts with 0. The resulting
matrix is symmetric, a property that is used by the “fast fourier
transform” algorithm, in short fft. As a result of this highly
efficient algorithm, you find many code snippets just labeled “
fft”.
The more you get down into the matrix, the higher the exponent;
the higher the frequencies which are calculated. You'll see even
more reference to periodic functions, if we write the function
with sine and cosine waves using euler's identity.

You find the product of k and j in the above fourier matrix. This
is a sum containing a bunch of periodic waves, which are weighted
depending on how the input signal looks like. Depending on how
big v is at the index j, some frequencies get a greater value
than others. Fourier analysis finds out, which frequencies[footnote:
You might say circular motions.
] to add in order to get something like the input signal.
5.2 Frequency distribution in the result
How can I tell the user about the frequency of the tone that was
played, dependent on buffer and fft size? There is this output
vector which gives me some data the fft has computed. What do
these values mean? To find out, we should give our program some
parameters:
[/
#define FFT_SIZE (8192)
#define SAMPLERATE (8000)
/]
The signal gets sampled 8000 times per second, frequencies up to
approximately 4000 Hz can be detected. The audio buffer and
therefore the vector for the input data has a length of 8192, and
that's also the amount of complex numbers we have now as output
vector of the fft. The frequency f for a value from c is defined
as follows:

This apparently goes from zero to approximately 8000, so the
values of the frequency vector above 4000 are not meaningful.
Noteworthy here - every value in c is a central frequency. For
every k, the frequency value changes by

given our configuration. As a comparison check out these values:

A low samplerate combined with a large buffer minimizes the
frequency width, whereas a finer sampling combined with a small
buffer gives you a really coarse frequency grid.[footnote:
These frequency bands are often called „fft bins“.
]
In the code mentioned above, there are arrays of the length of
the fft for frequency, note name and pitch. While this is
implementation specific, it should still be mentioned that the
frequency array is initialised over its whole length with the
corresponding frequency value

The samplerate divided by size of the fft window gives you the
width of one frequency bin, its central frequency determined by
the index i.
[/
for ( int i = 0; i < FFT_SIZE; ++i ) {
freqTable[i] =
(SAMPLE_RATE * i) / (double)(FFT_SIZE);
}
/]
5.3 Pitches and names
The program needs an internal representation of how the
frequencies should be called as notes. Given a detected
fundamental frequency the code should know, which pitch
corresponds to the frequency. The twelve pitches can be mapped to
frequencies via an index. But of what frequencies are we
speaking? The a4 at 440 Hz is taken as a reference in most cases.
Knowing that one octave doubles frequency[footnote:
Exponential increase, by the way.
], I can identify 880 Hz, 220 or 110 Hz as notes with the pitch “
a”. But what happens in between? Maybe the guitar is really not
in tune, and the string is almost one semitone sharp or flat - or
the strings were completely changed out and have no “initial
value”.
As frequency exactly doubles while crossing one octave, the
frequency distance between semitones grows when ascending or
diminishes when descending. There is never the same numerical
distance between the frequency of semitones. That's why a
logarithmic scale is used to obtain a scale of equidistant
semitones. Now the question is, which frequency does the pitch
one semitone above a4 have? The octave - here the factor p which
means “twice of what was there before” - gets equally spaced in
twelve steps:

If I multiply any frequency by 2, out comes the octave. If I want
the tone to be just a little higher - for example the smallest
possible diatonic step of one semitone - the factor should be
less big. How much “less big” can be calculated, if one reference
frequency and the distance is known.

With this information, a program can generate note names from
frequencies - in what form or data structure you want to do it is
up to you as a decision of the implementation.
5.4 Peak
[/
// distance formula
v = this.ar[j]*this.ar[j] + this.ai[j]*this.ai[j];
/]
How does the program find the fundamental frequency? The given
code determines the energy at certain fft bins[footnote:
Auf stackoverflow „fft magnitude“
] by interpreting the result of the fft as a distance. In the
easiest case, an iteration over the array of results is done to
get the maximum value; that means we search the frequency band
with the greatest amplitude.
The low e-string of the guitar has a fundamental frequency of
82.5 Hz. But unfortunately, this frequency is lower in amplitude
than the first harmonic in the majority of cases. So what happens
with our simple pitch detection? It detects the highest
amplitude, which is in fact the harmonic and not the desired
fundamental that we hear. At this point, the fft is not good
enough for a reliable pitch detection. The fundamental which we
somehow hear but which does not get detected points to the fact,
that pitch perception is a psychoacoustic phenomenon. What we
actually hear does not seem to be determined solely by the
spectrum that a fft reveals. Whether fft is reliable, seems to
depend on its working area. If you want to get your guitar in
tune, and fft is the only tool - you will soon want to optimize
things. In order to do this it is necessary to dive deeper into
signal processing and pitch detection algorithms.
6 Filter
[float Figure:

[Figure 7:
Lowpass filter
]
]
In order to minimize the problem of missing fundamentals, a low
pass filter is used before doing the fft. Only frequencies up to
a specific threshold get into the buffer. Most high frequencies
would not be detected anyway. And in a tuning app, we do not need
high quality audio as we don't want to play it back after
processing it. Filtering out high frequencies and unmusical
noises reduces errors while processing the data. Additionally a
windowing function is used to smooth the audio screenshot at the
edges. These soft edges also reduce errors caused by rough
transitions, as the fourier transformation pretends the signal to
be periodic.
[float Figure:

[Figure 8:
Hanning - window
]
]
Synthesis
While not yet dealing with aspects of user interaction, the
implementation of a basic functionality was discussed. Simply
doing a fft gets you in the right direction, but unfortunately
only half the way. Nevertheless this is the first step towards a
solution of the realworld requirements. The stage is set, on
which further refinement can take place.
Tuning a guitar is a special case in the more general field of “
pitch detection”. Since electronic equipment became small enough,
it was employed in tuning. With smartphones in our hands, a
little revolution of computing power took place. Fourier analysis
can be done on most if not all of today's handheld devices. But
that's not state of the art anymore. There are numerous
algorithms for pitch detection out there. Fft is just one of the
tools applied in these algorithms, dealing with the frequency
domain of signals. If you feel you understand the numbercrunching
that is done in fourier transformation, go on and take a look at
the McLeod pitch method[footnote:
This could be sort of a follow up:
http://www.cs.otago.ac.nz/tartini/papers/Visualization_of_Musical_Pitch.pdf
] which has a really good paper online. The YIN[footnote:
A bit more difficult to read:
http://audition.ens.fr/adc/pdf/2002_JASA_YIN.pdf
] algorithm is another more recent approach which is very well
documented online.
Have fun coding audio, and don't forget to play your guitar!
First steps towards a tuner
.pdf version
Abstract
A really good tuner shows the user how to tune by being
intuitive. That's a technical requirement towards which this
explanation goes. Some basics are touched and built on the way;
it would't bother if you have already written „hello world“.
„[...] it's just a little coding [...]“
„[...] it's not just the fft [...]“
Fork
[/
// initialize portaudio
err = Pa_Initialize();
if( err != paNoError ) goto error;
/]
1 Why?
Being a guitarist for 30 years, I encountered many ways to get
the Instrument in tune. When looking back I would like to know
how long my guitar was out of tune with me not knowing better...
tuning is daily work and not trivial for the beginner. My first
tuning tool was a thing to whistle about, which had six notes
corresponding to the strings. The sound of this was as far from a
guitar as could be, so the difference in pitch was hard to tell.
Next came the fifth fret method, as I had suffered long enough
from the whistle. A difficult task to handle, using two hands
crossed getting the strings to sound while you adjust the string.
I found it a little easier to get a glimpse on the difference in
pitch with this method, but nevertheless your hearing should be
trained to this. Depending on the guitar, this can be error prone
due to imperfect fretting. As playing evolves, overtones can be
used for tuning. I finally managed to get the guitar in tune
fairly well with overtones and a tuning fork. By this method it
became clear that no guitar can ever be perfectly tuned. The
interplay of string tension, string length, fret positions, nut
and saddle positions is always just as good as it can be. But the
compromise keeps getting better and better, and that's the road
to go.
While being a guitar teacher I realised the weakness of some
tuners concerning the low strings. Especially the low E-string is
a fierce demon that some machines just won't see. Also many cheap
tuners suffer from being chatty and displaying too much in too
little time. Values jump around and can't decide where to go.
[float Figure:

[Figure 1:
Tuning pipe
]
]
2 Evolution of digital tuners
Apart from the whistle, nowadays there are floor tuners, rack
tuners and clip-on tuners. These last could be a landmark in
useability, if they did their job at least acceptable. Depending
on the guitar, an experienced user is necessary - if the
vibration of the guitar is not high enough in amplitude the piezo
of the clip tuner does not get enough input. Still the difficulty
of low strings remained. With the advent of smartphones in almost
everybody's hands, a new age in digital tuning has arrived.
Suddenly a tuner is capable of a calm display and really neat
pitch detection. What's going on? How and why do they accomplish
this - whereas the former generations didn't?
3 Not necessarily from scratch
There are numerous tuner algorithms out there, for various
platforms. So there's definitely no need to write just another
tuner. But the thing with digital audio and signal processing is,
you need to start somehow from scratch to gain a basic
understanding of what is going on „under the hood“. We use Bjørn
Roches Code[footnote:
http://blog.bjornroche.com/2012/07/frequency-detection-using-fft-aka-pitch.html
] to start our way into the „black magic“ of the fft. It's a
tuner written in c and designed to be easy to understand and
follow. The outline of processing is as follows:
• Read audio for fft
• Low pass data
• Apply window function on data
• Apply fft
• Find peak in the data
• Determine frequency based on the peak value
Following this skeleton we will discuss the way of the audio
signal.
[float Figure:

[Figure 2:
ccgt 0.1 in the terminal
]
]
Execution
[/
applyfft( fft, data, datai, false );
/]
4 Digital[footnote:
“digitus” is a word for “finger”, so the term “digital” means
something like “countable with the fingers” - even if today's
machines have a bunch of fingers.
] audio signals
All sounds of the real world, that find their way into the
computer, live there only as numbers. While the vibrations of air
are continuously happening all the time, the computer just gets
one moment of a sound at a time. And every moment of the sound
the computer records is - a number.
[float Figure:

Digital sampling
]
]
So if our program records sounds, these vibrations of air somehow
get translated into numbers. The numbers are defined by their
position in time, one position is one number which is called a
sample. The samplerate is how often per second the computer
listens. The unit for this is Hertz.
4.1 Perception of tones, sounds and noises
Let's imagine I produce a particular sound, for example tapping
the pencil against the table. The single sound of this would be a
kind of „tick“. When tapping faster, there would be a faster
sequence of ticks. Above a certain frequency, these ticks would „
collapse“ in our perception - into a tone with a frequency. From
20 Hz on upwards, we would perceive what could perhaps be called
a tone - at least there is a periodic vibration. I'm afraid I
can't do that with my pencil. In musical instruments there are
strings, membranes and lots of other things producing these
periodic vibrations. If you want to listen to the phenomenon of a
series of impulses getting faster and collapsing to a tone,
listen to the intro of „Gamma Ray“ by the krautrocker group
Birthcontrol[footnote:
https://www.youtube.com/watch?v=Vzlv7LFmLMg
]... a synthesizer does the job here.
The human ear is product of a long process of evolution, which
once was one of our life-saving abilities. This means, it can do
lots of really fine scanning and listening. But how is the
computer doing it? On which basis does he work? One prerequisite
- the samplerate - was already mentioned above. There is a fixed
rate of scans per second. If human beings can perceive a tone or
pitch from 20 Hz on upwards ... how often should the computer
sample?
4.2 How the computer listens
The Nyquist - Theorem explains, how often a signal has to be
sampled to be able to represent it digitally. Figure 4[footnote:
freundlicherweise von Peterpall - Eigenes Werk, CC BY-SA 3.0,
https://commons.wikimedia.org/w/index.php?curid=8730560 zur
Verfügung gestellt.
] tries to show, how frequencies above the nyquist frequency
behave. In the middle you see a wave that gets sampled, that has
exactly the frequency of half the samplerate. That is an
important threshold for frequencies that get into the computer.
How come, that you can only represent frequencies up to half of
the samplerate?
[float Figure:

[Figure 4:
Nyquist theorem
]
]
Could the computer hear my pencil tapping at 20 Hz? Yes, if he
only listens frequently enough. Suppose I live directly next to a
street, on which exactly one car per minute passes past my house.
Supposed I listened hard all the time, car noises would become
louder at first. Then - when passing by - a climax is reached.
After that the noise fades away, until the next car is beginning
to come nearer. The level of noise is like a wave. But
unfortunately I sit in front of my computer with headphones on
and therefore cannot hear what is going on around me. Nothing
from the outside world gets to my ears. If I took off my
headphones every 60 seconds to check what's going on, I could get
the impression there are no cars on the street. That would happen
if I accidentally pick the moment when the outside noise is
lowest. It could as well happen I always listen exactly in the
moment when a car is directly in front of my house. Then I might
come to the conclusion, there's a whole lot of traffic. This
misconception of what is going on has its roots in the periodic
nature of my listening on the one hand, and the processes I
listen to on the other hand.
The computer is like me in the example: sampled audio signals are
not continuous, but a bunch of points with nothing between them.
Figure 5 shows this - the high frequencies are very fast “cars”
racing through the points while not really getting noticed. In a
periodic signal incredibly many “cars” are passing by with
different speeds; you can easily get false impressions about the
traffic. As human hearing can sense vibrations up to 20000 Hz, a
samplerate of 20000 would never be enough to represent such high
frequencies. Therefore you might have heard of the famous value
44100 Hz, roughly about the double of perceivable frequencies
plus a little headroom.
The signal inside the computer is not only discrete in time. Also
the strength of the vibration is represented as numbers. The
amplitude of the signal is - after being recorded by the computer
- not continuous any more. The louder a sample, the higher the
number on a given scale. This value represents a step of
loudness, and between the steps there are gaps again. Most audio
data has 8 or 16 bit samples, which means the number for one
sample can be that long or precise.
[/
recorder = new AudioRecord(AUDIO_SOURCE, SAMPLE_RATE, CHANNEL,
AUDIO_FORMAT, BUFFER_SIZE);
/]
If you see the processing of input data as some kind of “hearing”
, so this is a discrete process. The computer cannot be a unity
of perception and processing at the same time like the human
hearing. It's always going to be a finite buffer of numbers that
the computer processes. After finishing the processing, the
result can be viewed and the next buffer will be processed and so
on. Of course this happens very fast - so fast you could think
the process is continuous. The changes happen within
milliseconds. Nevertheless there has to be a defined region of
audio data, on which processing occurs and on which steps of
processing are defined. Here the buffer comes into focus.
4.3 Buffer: One at a time, please
Buffer size determines the amount of audio data on which
calculations are done. Suppose I work in the kitchen of a
restaurant and have the task of peeling potatos. As the potatos
are in the basement, I won't go there for every single potato,
peel it and put it into the water. Normal human beings would
fetch a bag of potatoes. This quantity gets peeled and eaten,
when that is done the next bag is fetched. It is unlikely that so
many potatoes get eaten for one lunch, but never mind the bad
example. The size of the bag is the buffersize for the
processing. The computer gets data all the time, but he can only
deal with it in defined portions. The audio system may need a
fine sample resolution in order to be able to represent the
desired frequencies - but buffer size also has its constraints
and should neither be too big nor too small. Maybe you have
already encountered the problem of latency while recording audio
and then tried to change your buffer size. While doing this you
often see powers of 2 as values.
[/
err = Pa_ReadStream( stream, data, FFT_SIZE );
/]
The easiest case is, your buffer size is equal to your fft size.
Of course there are more refined concepts. But for first we
divide the problem into reading audio data once - and then
analysing around on this “screenshot” of audio.
[float Figure:

[Figure 5:
Discrete values on the time axis
]
]
5 Fourier transformation
5.1 Change dimensions
Having read audio data into the buffer, the numbers are in memory
as time discrete values. They represent vibrations of air at a
given moment in time. Data is ordered on the time axis, and each
value has a certain “height” or amplitude. The imagination of a
waveform might help. The array of audio data is a vector of
numbers with the length of n.

The elements of this vector are float numbers with values from -1
to 1. The cector v is transformed to a vector c of equal length
by the fourier transformation:

After that, again we have a series of numbers of equal length.
But the numbers now represent frequencies, not amplitudes. After
the fourier transformation, the vector c

contains the frequency spectrum of the input signal. There was a
cocktail in your glass before, but now you have all the
ingredients separated in it - at least ideally. The cake was
ready, but now it is backwards engineered and divided into the
parts of its recipe again. The transformation takes amplitudes on
the time axis, and gives you amplitudes on the frequency axis.
See this happening in realtime on a waterfall display, and you
will know what I mean.[footnote:
https://phyphox.org/de/home-de/ software for physical experiments
] Spectral components are plotted as time advances. Dominant
frequencies are highlighted.
[float Figure:

[Figure 6:
Waterfall-display
]
]
But how does fourier transformation really work? What happens to
our input data, that makes it so meaningful afterwards? Let's say
we have a audio buffer of the length 8, and there are even some
values in it:

Fourier transformation would take this as input data:

It then computes the coefficients of sine- and cosine waves.
Fourier believed, that every periodic wave could mathematically
be described as the sum of sinewaves and their integer multiples.[footnote:
https://www.youtube.com/watch?v=7bi5_KC08Kg
] This process is called fourier synthesis. For a periodic
function f(t) with the period T, the definition of the fourier
synthesis is as follows:

The function is built up out of infinite partial functions, every
one depending on the number n. The base frequency of each partial
is t/T in the exponent of e, and n as its integer factor. Ideally
this should add up infinitely. The computer won't reach infinity
with his calculations, and we don't want to wait until he
eventually does. The frequencies of the input signal don't reach
until infinity as well, as it is built of samples and therefore
constrained to the nyquist frequency. So we modify the function
and reduce it to the length of the buffer. Additionally, we don't
want to have a synthesizer that builds soundwaves, but the exact
opposite: We want to determine frequencies in the input signal.
So we apply the inverse of fourier synthesis, the fourier
analysis. This is often called the discrete fourier transform,
because the signal we're working on is not continuous but
discrete. With this said, the vector c gets computed as follows:

Every sample in our input data is now represented by a element v
with the index j in the sum. This means: To get one single
element of the transformed vector c, a operation on the whole
audio buffer occurs. If you write the computation for one element
of c as row, and that for every single element of c, you get the
matrix version of the fourier transformation:

For every row of the fourier matrix, the index k stays constant
while j increases for every column. This gives a zero line as
first line, integer multiples of 1 in the second line, integer
multiples of 2 in the third line and so on. The first column is
zero, because the index j always starts with 0. The resulting
matrix is symmetric, a property that is used by the “fast fourier
transform” algorithm, in short fft. As a result of this highly
efficient algorithm, you find many code snippets just labeled “
fft”.
The more you get down into the matrix, the higher the exponent;
the higher the frequencies which are calculated. You'll see even
more reference to periodic functions, if we write the function
with sine and cosine waves using euler's identity.

You find the product of k and j in the above fourier matrix. This
is a sum containing a bunch of periodic waves, which are weighted
depending on how the input signal looks like. Depending on how
big v is at the index j, some frequencies get a greater value
than others. Fourier analysis finds out, which frequencies[footnote:
You might say circular motions.
] to add in order to get something like the input signal.
5.2 Frequency distribution in the result
How can I tell the user about the frequency of the tone that was
played, dependent on buffer and fft size? There is this output
vector which gives me some data the fft has computed. What do
these values mean? To find out, we should give our program some
parameters:
[/
#define FFT_SIZE (8192)
#define SAMPLERATE (8000)
/]
The signal gets sampled 8000 times per second, frequencies up to
approximately 4000 Hz can be detected. The audio buffer and
therefore the vector for the input data has a length of 8192, and
that's also the amount of complex numbers we have now as output
vector of the fft. The frequency f for a value from c is defined
as follows:

This apparently goes from zero to approximately 8000, so the
values of the frequency vector above 4000 are not meaningful.
Noteworthy here - every value in c is a central frequency. For
every k, the frequency value changes by

given our configuration. As a comparison check out these values:

A low samplerate combined with a large buffer minimizes the
frequency width, whereas a finer sampling combined with a small
buffer gives you a really coarse frequency grid.[footnote:
These frequency bands are often called „fft bins“.
]
In the code mentioned above, there are arrays of the length of
the fft for frequency, note name and pitch. While this is
implementation specific, it should still be mentioned that the
frequency array is initialised over its whole length with the
corresponding frequency value

The samplerate divided by size of the fft window gives you the
width of one frequency bin, its central frequency determined by
the index i.
[/
for ( int i = 0; i < FFT_SIZE; ++i ) {
freqTable[i] =
(SAMPLE_RATE * i) / (double)(FFT_SIZE);
}
/]
5.3 Pitches and names
The program needs an internal representation of how the
frequencies should be called as notes. Given a detected
fundamental frequency the code should know, which pitch
corresponds to the frequency. The twelve pitches can be mapped to
frequencies via an index. But of what frequencies are we
speaking? The a4 at 440 Hz is taken as a reference in most cases.
Knowing that one octave doubles frequency[footnote:
Exponential increase, by the way.
], I can identify 880 Hz, 220 or 110 Hz as notes with the pitch “
a”. But what happens in between? Maybe the guitar is really not
in tune, and the string is almost one semitone sharp or flat - or
the strings were completely changed out and have no “initial
value”.
As frequency exactly doubles while crossing one octave, the
frequency distance between semitones grows when ascending or
diminishes when descending. There is never the same numerical
distance between the frequency of semitones. That's why a
logarithmic scale is used to obtain a scale of equidistant
semitones. Now the question is, which frequency does the pitch
one semitone above a4 have? The octave - here the factor p which
means “twice of what was there before” - gets equally spaced in
twelve steps:

If I multiply any frequency by 2, out comes the octave. If I want
the tone to be just a little higher - for example the smallest
possible diatonic step of one semitone - the factor should be
less big. How much “less big” can be calculated, if one reference
frequency and the distance is known.

With this information, a program can generate note names from
frequencies - in what form or data structure you want to do it is
up to you as a decision of the implementation.
5.4 Peak
[/
// distance formula
v = this.ar[j]*this.ar[j] + this.ai[j]*this.ai[j];
/]
How does the program find the fundamental frequency? The given
code determines the energy at certain fft bins[footnote:
Auf stackoverflow „fft magnitude“
] by interpreting the result of the fft as a distance. In the
easiest case, an iteration over the array of results is done to
get the maximum value; that means we search the frequency band
with the greatest amplitude.
The low e-string of the guitar has a fundamental frequency of
82.5 Hz. But unfortunately, this frequency is lower in amplitude
than the first harmonic in the majority of cases. So what happens
with our simple pitch detection? It detects the highest
amplitude, which is in fact the harmonic and not the desired
fundamental that we hear. At this point, the fft is not good
enough for a reliable pitch detection. The fundamental which we
somehow hear but which does not get detected points to the fact,
that pitch perception is a psychoacoustic phenomenon. What we
actually hear does not seem to be determined solely by the
spectrum that a fft reveals. Whether fft is reliable, seems to
depend on its working area. If you want to get your guitar in
tune, and fft is the only tool - you will soon want to optimize
things. In order to do this it is necessary to dive deeper into
signal processing and pitch detection algorithms.
6 Filter
[float Figure:

[Figure 7:
Lowpass filter
]
]
In order to minimize the problem of missing fundamentals, a low
pass filter is used before doing the fft. Only frequencies up to
a specific threshold get into the buffer. Most high frequencies
would not be detected anyway. And in a tuning app, we do not need
high quality audio as we don't want to play it back after
processing it. Filtering out high frequencies and unmusical
noises reduces errors while processing the data. Additionally a
windowing function is used to smooth the audio screenshot at the
edges. These soft edges also reduce errors caused by rough
transitions, as the fourier transformation pretends the signal to
be periodic.
[float Figure:

[Figure 8:
Hanning - window
]
]
Synthesis
While not yet dealing with aspects of user interaction, the
implementation of a basic functionality was discussed. Simply
doing a fft gets you in the right direction, but unfortunately
only half the way. Nevertheless this is the first step towards a
solution of the realworld requirements. The stage is set, on
which further refinement can take place.
Tuning a guitar is a special case in the more general field of “
pitch detection”. Since electronic equipment became small enough,
it was employed in tuning. With smartphones in our hands, a
little revolution of computing power took place. Fourier analysis
can be done on most if not all of today's handheld devices. But
that's not state of the art anymore. There are numerous
algorithms for pitch detection out there. Fft is just one of the
tools applied in these algorithms, dealing with the frequency
domain of signals. If you feel you understand the numbercrunching
that is done in fourier transformation, go on and take a look at
the McLeod pitch method[footnote:
This could be sort of a follow up:
http://www.cs.otago.ac.nz/tartini/papers/Visualization_of_Musical_Pitch.pdf
] which has a really good paper online. The YIN[footnote:
A bit more difficult to read:
http://audition.ens.fr/adc/pdf/2002_JASA_YIN.pdf
] algorithm is another more recent approach which is very well
documented online.
Have fun coding audio, and don't forget to play your guitar!
Sonntag, 10. Januar 2021
Linux Essentials
Mittwoch, 6. Januar 2021
Tuner App reaches v1.0
Yeeeehah ... ccgt reaches version 1.0 and is available on github. Big thanks to Izzy for all your support! I will be the proud owner of your Inofficial Android Handbook in a few days
))
You can get a bundled version of ccgt here:

Greetings, and don't forget to play your guitar.

You can get a bundled version of ccgt here:

Greetings, and don't forget to play your guitar.
Dienstag, 22. Dezember 2020
github now hosts ccgt
ccgt version 0.85 is out now .... check out the sourcecode on github. now pitch detection is done using the yin algorithm developed by Joren Six, Olmo Cornelis and Marc Leman. a great thank you !!!!
instead of just doing fft, the yin algorithm detects fundamentals with way less error... you can try with your low e-string
instead of just doing fft, the yin algorithm detects fundamentals with way less error... you can try with your low e-string

Montag, 21. Dezember 2020
Sultans Of Swing
MuseScore makes pretty sheet music - it also incorporates very neat support for guitar tablature 
Check out Mark Knopfler bending around on his Stratocaster!

Sultans_Of_Swing_Solo.pdf

Check out Mark Knopfler bending around on his Stratocaster!

Sultans_Of_Swing_Solo.pdf
Samstag, 19. Dezember 2020
Frequenzerkennung in digitalen Audiodaten am Beispiel eines Stimmgeräts
.pdf Version
Abstract
Ein Stimmgerät das wirklich gut funktioniert ist so intuitiv, dass es dem Benutzer die Schritte zur Stimmung seines Instruments anschaulich erklärt. Aus der konkreten Anwendung ergeben sich Anforderungen auf der technischen Seite, die hier implementiert werden sollen. Auf dem Weg dahin werden einige Grundlagen gelegt; es ist nicht hinderlich wenn man schon mal ein „hallo welt“ Programm geschrieben hat.
„[...] da schreiben wir mal eben ein Programm [...]“
„[...] it's not just the fft [...]“
Teil I Fork
1 Warum?
In meiner etwa 30 Jahre andauernden Beschäftigung mit der Gitarre habe ich viele Verfahren kennengelernt, das Instrument in Stimmung zu bringen. Im Nachhinein wüßte ich gern, wie lange ich mich damals mit schlecht gestimmten Instrumenten begnügt habe und es nicht besser wußte... denn Stimmen ist das täglich Brot und nicht eben leicht erlernt. Das erste Werkzeug hierfür war eine Stimmpfeife, welche die sechs Grundtöne der Gitarre erzeugen konnte. Nur das Spektrum dieser Töne war dem der sechs Saiten so verschieden, dass es äußerst schwer war dies aus dem Gehör heraus auf einen Nenner zu bringen. Mit viel Leidensfähigkeit und Experimentiergeist ließ sich in die Nähe kommen. Das nächste - die fünfter Bund Methode. Ein motorisch anspruchsvoller Vorgang, die Hände entgegen dem beim Gitarre Spielen verwendeten Sinn einzusetzen und zwei Töne gleichzeitig zum Klingen zu bringen während der Stimmwirbel verdreht wird. Hierbei ist die Ähnlichkeit der Töne zueinander größer, aber ein entwickeltes Gehör ist erforderlich um tatsächlich eine annähernde Gleichheit herzustellen. Je nach Gitarre ist hier außerdem ein Fehler wegen der Bundunreinheit wahrscheinlich. Mit fortgeschrittener Spieltechnik kommen die Obertöne als Werkzeug zum Gitarre Stimmen in Reichweite, endlich ein Lichtblick. Jahrelang meine Lieblingsmethode. Dann noch die Stimmgabel mit 440 Hertz dazu, und das Drehen an der Mechanik macht schon etwas mehr Spaß. Schließlich fand ich irgendwann heraus, daß keine Gitarre jemals perfekt gestimmt sein kann - das Zusammenspiel von Saitenspannung, Saitenlänge, Bundpositionen, Steg- und Sattelpositionen ist ein immer anders ausgestalteter Kompromiß.
In der Vermittlung von Gitarrenfähigkeiten habe ich festgestellt, daß Stimmgeräte oftmals bei den tieferen Tönen Probleme haben. An der tiefen E-Saite scheiden sich die Geister, oder die Spreu vom Weizen was die Stimmgeräte angeht. Viele billige Varianten haben die Krankheit der Wackeligkeit - besonders einige Digitalgeräte. Sie springen zwischen Werten herum, und selbst wenn der Notenname korrekt erkannt wird kann sich das Gerät manchmal nicht für „die Mitte“ entscheiden.
2 Evolution der digitalen Stimmgeräte
Von der Stimmpfeife ging es zunächst zu Stimmgeräten als Bodeneffektgerät, Rackgerät und Clip-On Tuner. Die Anklemmgeräte markierten schon einen Meilenstein in der Praktikabilität, aber nicht immer funktioniert hier die Tonerkennung so sauber wie gewünscht. Je nach Gitarre ist hier auch ein erfahrener Benutzer notwendig; die Benutzung erfordert ein wenig Einübungszeit. Auch die Schwierigkeit der tiefen E-Saite bleibt vielen Geräten erhalten. Mit dem Erscheinen der digitalen Endgeräte in fast jedermanns Hand - Smartphones - beginnt nun eine neue Zeitrechnung der Stimmgeräte. Auf einmal ist ein Stimmgerät in der Lage, auf traumwandlerisch ruhige und intuitiv verständliche Art und Weise zu funktionieren. Was ist hier passiert, worin liegt nun der geniale Streich dieser neuen Generation von Stimmgeräten?
3 Not necessarily from scratch
Es finden sich im Internet unzählige Tuner-Algorithmen für diverse Plattformen. Definitiv muss hier das Rad nicht neu erfunden werden, nur sollte der Anfang nicht allzu umfangreich sein. Um ein grundlegendes Verständnis der digitalen Signalverarbeitung herzustellen und einen Rahmen vorzugeben, wird hier daher Bjørn Roches Code (zu finden hier: http://blog.bjornroche.com/2012/07/frequency-detection-using-fft-aka-pitch.html ) verwendet. Dabei handelt es sich um einen in der Programmiersprache c geschriebenen Tuner mit dem Schwerpunkt auf Verständlichkeit des Codes. Die Grundzüge der Verarbeitung sind:
- Lese Audio-Daten für die Fourier-Transformation
- Verwende Tiefpass-Filter auf den Daten
- Verwende eine Fensterfunktion auf den Daten
- Wende Fourier-Transformation an
- Finde einen Maximalwert in den Daten
- Finde die Hauptfrequenz anhand des erzeugten Maximalwerts
Anhand dieses Aufbaus wird im Folgenden unter Berücksichtigung einiger Voraussetzungen der Signalweg nachvollzogen.
Teil II Durchführung
4 Digitale Audiosignale
Alle Klänge der realen Welt, die ihren Weg in den Rechner finden, leben dort nur als Zahlen. Während die Schwingungen der Luftteilchen kontinuierlich stattfinden, so wird von einem Rechner nur ein Zeitpunkt dieser Schwingung erfasst und durch eine Zahl dargestellt. Lateinisch „digitus“ ist das Wort für Finger, also bedeutet digital so in etwa alles (an den Fingern) abzählbare. Auch wenn heutige Rechner viele „Finger“ haben.
Wenn also unser Programm Klänge aufnimmt, werden in irgend einer Form Luftschwingungen in Zahlen umgewandelt. Hierbei gibt es definierte Zeitpunkte, auch genannt die Samplerate. Ein Sample ist eine Abtastung, und die Frequenz der Abtastung gibt an wie häufig pro Sekunde abgetastet wird. Dementsprechend wird die Samplerate in Hertz angegeben.
4.1 Wahrnehmung von Geräuschen und Klängen
Nehmen wir an ich erzeuge ein beliebiges Geräusch; zum Beispiel tippe ich mit meinem Bleistift gegen den Tisch. Als einzelnes Geräusch höre ich eine Art „Tick“. Würde ich schneller gegen den Tisch tippen, gäbe es eine schnellere Folge von Ticks. Ab einer gewissen Schnelligkeit würde das Ticken jedoch umkippen in einen Ton mit einer Frequenz. Ab einer Frequenz von 20 Luftdruckschwingungen pro Sekunde und aufwärts würden wir das wahrnehmen, was vielleicht Ton genannt werden kann - zumindest kann von einer periodischen Schwingung geredet werden. In Musikinstrumenten schwingen Rohrblätter, Saiten und andere Dinge und erzeugen eben diese mehr oder weniger periodischen Schwingungen. Wer das Phänomen einmal klangsinnlich erleben möchte, dem sei der Anfang des Stücks „Gamma Ray“ der Krautrocker Birthcontrol (zu finden hier: https://www.youtube.com/watch?v=Vzlv7LFmLMg ) empfohlen. Hier übernimmt ein Synthesizer die Aufgabe, von schnellen Impulsen zu einem wahrnehmbaren Ton überzugehen.
Das menschliche Gehör ist ein für uns überlebenswichtiges Organ, das aus einer langen Evolutionsgeschichte hervorgegangen ist. Mit anderen Worten, wir sind im Idealfall zu einer sehr feinsinnigen Abtastung unserer akustischen Umwelt befähigt. Wie steht es hingegen mit dem Rechner? Auf welcher Grundlage arbeitet er? Die eine Grundbedingung der Samplerate wurde oben schon genannt. Es gibt eine feste Anzahl Abtastungen pro Sekunde. Wenn der Mensch ab einer Frequenz von 20 Hz in der Lage ist, einen Ton wahrzunehmen... wie oft müßte der Computer dann die Luftschwingung abtasten um ebensolches zu leisten?
4.2 Wie hört der Rechner
Das Abtasttheorem erklärt, wie oft ein Signal abgetastet werden muss um eine gewisse Frequenz darstellen zu können. Die Abbildung auf der folgenden Seite (freundlicherweise von Peterpall - Eigenes Werk, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=8730560 zur Verfügung gestellt) versucht optisch zu verdeutlichen, wie sich Frequenzen oberhalb der halben Abtastrate verhalten. Die halbe Abtastrate spielt für die im Rechner darstellbaren Frequenzen eine wichtige Rolle. Wie kommt es dazu, dass die Grenze dessen was an Frequenzen darstellbar ist ausgerechnet bei der Hälfte der Rate liegen?
Würde der Rechner das Brummen bei 20 Hz hören? Ja, wenn er oft genug pro Sekunde lauscht. Nehmen wir an ich wohne direkt neben einer Straße, auf der im Abstand von genau einer Minute jeweils genau ein Auto an mir vorbeirauscht. Würde ich die ganze Zeit aufmerksam lauschen, dann würde das Fahrgeräusch zunächst immer lauter werden. Schließlich erreicht der Krach seinen Höhepunkt und ebbt wieder gemächlich ab, bis sich irgendwann das nächste Auto durch lauter werdendes Rauschen ankündigt. Allerdings sitze ich zu allem Übel mit Kopfhörern vor dem Rechner und kann die Geräusche der Außenwelt nicht wahrnehmen. Würde ich alle 60 Sekunden genau im Moment der Stille die Kopfhörer abnehmen um zu lauschen, könnte ich zu der Auffassung gelangen es führen keine Autos auf der Straße. Es könnte auch passieren, dass ich den Eindruck bekomme es führen die ganze Zeit Autos vorbei - wenn ich immer im Höhepunkt der Fahrgeräusche lausche.
Der Computer macht es wie ich: abgetastete Tonsignale stellen keine kontinuierliche Welle dar, sondern eine Ansammlung von Punkten zwischen denen nichts ist. Abbildung 5 verdeutlicht dies - die hohen Frequenzen sind sehr schnelle „Autos“, die einfach zwischen den Punkten durchfahren und eigentlich nicht bemerkt werden. In einem periodischen Tonsignal sind manchmal unglaublich viele „Autos“ unterschiedlicher Geschwindigkeit unterwegs; und es kann bei falschen Voraussetzungen passieren, dass man einen falschen Eindruck vom „Verkehr“ bekommt. Da das menschliche Gehör im Idealfall Schwingungen bis etwa 20000 Hz wahrnehmen kann, würde eben eine Abtastrate von 20000 nicht ausreichen um all das abzubilden. In der Praxis findet sich daher der Wert 44100, das Doppelte der hörbaren Schwingungen plus ein wenig „headroom“.
Zusätzlich zur zeitlichen Diskretisierung wird auch noch die Amplitude in Zahlen umgewandelt. Auch die Lautstärke wird nicht kontinuierlich dargestellt, sondern auf einer lückenhaften Skala. Also je lauter ein Signal ist, desto höher der zugewiesene Wert in der resultierenden Serie von Zahlen. Hierbei kommen meist 8 oder 16 Bit pro Abtastwert zum Einsatz. Je mehr Bit das Audioformat zuläßt, umso größer können die Werte der Zahlenreihe werden.
Wenn man die Verarbeitung von Eingabesignalen als das „Hören“ des Computers bezeichnet, so ist selbst dieser Prozeß diskret. Der Rechner kann nicht ohne Weiteres wie das menschliche Gehör eine Einheit von Wahrnehmung und Verarbeitung zur gleichen Zeit darstellen. Es wird immer eine definierte - endliche - Zahlenmenge bearbeitet und das Ergebnis zurückgegeben; natürlich als Zahl. Dann kann eine nachfolgende Zahlenmenge bearbeitet werden und so weiter. Natürlich sind Rechner bisweilen in der Lage so schnell zu rechnen, dass der menschlichen Wahrnehmung vorgegaukelt wird es wäre annähernd kontinuierlich was da passiert. Die Änderungen sind im Millisekundenbereich. Dennoch muß es für die Bearbeitung der Audiodaten eine Grenze geben, anhand derer einzelne Bearbeitungsschritte definiert werden können. Hier kommt der Puffer ins Spiel.
4.3 Puffer: Immer schön hinten anstellen
Die Größe des Puffers bestimmt die Menge an Audiodaten, auf denen die Berechnungen durchgeführt werden. Nehmen wir an ich bin in der Küche eines Restaurants angestellt, und soll Kartoffeln schälen. Die Kartoffeln liegen im Keller. Ich gehe nicht für jede Kartoffel in den Keller, schäle sie dann und lege sie in den Topf - ich hole einen Topf voll. Diese Menge an Kartoffeln verarbeite ich als eine Untermenge der gesamten Kartoffeln. Wenn ein Topf kocht - sich also im nächsten Bearbeitungsschritt befindet - könnte ich losgehen und die nächste Ladung Kartoffeln holen. Es ist eigentlich unwahrscheinlich, dass an einem Tag so viele Kartoffeln gegessen werden. Aber egal wie schlecht das Beispiel ist, die Größe meines Topfes entspricht der Puffergröße für die Verarbeitung der Audiodaten. Der Rechner bekommt die ganze Zeit Daten, aber er kann sie nur in definierten Portionen verwerten. Das Audiosystem benötigt eine feine zeitliche Auflösung um die gewünschten Frequenzen erkennen zu können; und auch die Puffergröße kann einen gewissen Wert weder über- noch unterschreiten. Vielleicht hat der eine oder andere schon mal das Problem der Latenzzeit am Rechner gehabt und infolge dessen an seiner Puffergröße herumgestellt. Dabei stellt man fest, dass als Größen oft Potenzen von 2 vorkommen.
Im einfachsten Fall ist die Puffergröße gleich der Größe des fft-Arrays. Es gibt natürlich ausgefeiltere Pufferkonzepte (beispielsweise https://de.wikipedia.org/wiki/First_In_%E2%80%93_First_Out ) um das Ergebnis zu verbessern. Doch zunächst einmal vereinfachen wir dahingehend, dass pro Berechnungsperiode einmal Audiodaten gelesen werden und dann auf diesem „Screenshot“ der Klänge herumanalysiert wird.
5 Fouriertransformation
5.1 Dimensionswechsel
Wenn das Programm Audiodaten eingelesen hat, liegen diese als zeitdiskrete Werte im Speicher. Sie repräsentieren die Auslenkung der Luftteilchen - die Amplitude zu einem gegebenen Zeitpunkt. Die Daten sind also auf der Zeitachse angeordnet und haben jeweils eine gewisse „Höhe“, wenn die Vorstellung als Wellenform hilft. Es liegt ein Vektor von Zahlen vor, dessen Länge der Puffergröße n entspricht.

In unserem Code sind die n Elemente dieses Vektors als Fließkommazahlen abgebildet, so daß Werte von -1 bis 1 vorkommen. Der vorliegende Vektor v wird durch die Fouriertransformation in einen Vektor c der gleichen Länge umgewandelt:

Es entsteht also wiederum eine Zahlenfolge der entsprechenden Länge, nur dass diese nicht mehr die Amplituden sondern Frequenzen repräsentieren. Der Vektor c

enthält nach Durchführung der Fouriertransformation das errechnete Frequenzspektrum des Eingangssignals. Hatte man vorher den gesamten Cocktail im Glas, so ist nun jeder Bestandteil des Gemischs im Glas getrennt voneinander vorhanden - zumindest in einer idealisierten Betrachtung. Vorher war der Kuchen fertig gebacken, nun ist er aufgeteilt in die Bestandteile seiner Herstellung. Die Fouriertransformation führt vom fertigen Produkt zum Rezept. Die Transformation macht aus Amplituden auf der Zeitachse - Amplituden auf der Frequenzachse. Anschaulich läßt sich dies beispielsweise an einem Wasserfall-Display (Besitzer eines Android Smartphones können zum Beispiel unter https://phyphox.org/de/home-de/ die Software finden, um solche Experimente auf dem eigenen Telefon durchzuführen) erleben, in dem die spektralen Anteile abhängig von der Zeit farblich abgesetzt angezeigt werden.
Wie aber funktioniert die Fouriertransformation wirklich? Was passiert mit den Eingangsdaten, das sie nachher so bedeutungsvoll macht? Nehmen wir an, unser Audiopuffer hätte die Länge 8, und in ihm liegen einige Werte:


Die Fouriertransformation berechnet die Koeffizienten von Sinus- und Kosinusschwingungen. Fourier ging von der Annahme aus, dass sich jede periodische Schwingung als Summe von Sinusschwingungen und deren ganzzahligen Vielfachen darstellen lässt ( https://www.youtube.com/watch?v=7bi5_KC08Kg ). Dieser Prozess wird auch Fouriersynthese genannt. Für eine periodische Funktion f(t) mit der Periode T lautet die theoretische Definition der Fouriersynthese:

Die Funktion wird hier aus unendlich vielen Teilfunktionen zusammengebaut, die alle jeweils für sich von der Zahl n abhängen. Im Exponenten von e findet sich die Grundfrequenz als t/T, und n als ihr ganzzahliges Vielfaches. Der Computer wird mit seiner Berechnung allerdings nicht bis ins Unendliche kommen - oder wir können und wollen nicht so lange warten. Die Frequenzen des Eingangssignals gehen auch nicht bis ins Unendliche, da es ja aus Samples besteht und deswegen eine begrenzte Frequenzauflösung hat. Daher treten wir in der Formel etwas kürzer und reduzieren uns auf die Länge des Puffers. Außerdem wollen wir keine periodische Schwingung aus Einzelwellen zusammenbauen, sondern vielmehr umgekehrt von einem beliebigen Audiopuffer die Frequenzanteile bestimmen. Zur Anwendung kommt also das Gegenteil der Synthese, die Fourieranalyse. Hierbei rechnen wir nicht kontinuierlich, sondern verwenden die diskrete Fouriertransformation. Der Vektor c wird also unter diesen Bedingungen wie folgt berechnet:

Jeder Sample in unseren Eingangsdaten stellt nun ein Element v mit dem Index j innerhalb der Summe dar. Das heißt: Um ein einziges Element im transformierten Vektor c zu erhalten, wird eine Berechnung über den gesamten Eingangsdaten durchgeführt. Schreibt man die Berechnung für das Element im Vektor c als Zeile auf, und das für jedes Element in c, so erhält man die Formel der Fouriertransformation in Matrixschreibweise.

Für jede Zeile der Fourier-Matrix bleibt der Index k konstant, während j sich pro Spalte um eins erhöht. So ergeben sich in der ersten Zeile Nullen, in der zweiten Zeile ganzzahlige Vielfache von eins, in der dritten Zeile ganzzahlige Vielfache von 2 und so fort. Die erste Spalte ist eine Nullspalte, da der Index j immer bei null beginnt. Die sich ergebende Matrix besitzt eine Symmetrie, was Algorithmen wie die „fast fourier transform“ ausnutzen. Aufgrund des Erfolges dieser Optimierung wird eigentlich oft nur noch „fft“ gesagt, und so heißen dann auch meistens die entsprechenden code-Schnipsel.
Je weiter unten und je weiter hinten in der Matrix, um so höher wird der Exponent. Um so höher werden auch die Frequenzen, deren Vorhandensein geprüft wird. Noch sinnfälliger wird dies, wenn wir die Gleichung der Koeffizienten umformen und statt der Exponentialschreibweise cosinus und sinus verwenden.

Das Produkt aus k und j können wir direkt oben in der Matrix ablesen. Es wird also eine Summe über einer Menge von Kreisbewegungen gebildet, und je nachdem wie das Signal (der Wert im Vektor der Eingangsdaten) aussieht werden manche Frequenzen stärker gewichtet als andere. Die Fourieranalyse findet heraus, welche Frequenzen (Hier könnte auch das Wort „Kreisbewegungen“ stehen) man mit welcher Amplitude und Phase addieren muss, um etwas wie das Eingangssignal zu erhalten.
5.2 Frequenzverteilung im Ergebnis
Wie bestimmt sich nun über die Größe des Audiopuffers bzw. des fft's die Frequenzverteilung, wie kann ich dem user sagen wie viel Hz der gespielte Ton hat? Es gibt ja nun einen Ausgabevektor mit den von der fft gelieferten Daten. Was bedeuten dessen Werte? Um das herauszufinden, müssen wir unserem Programm erst einmal ein paar Parameter geben:
Das Signal wird 8000 mal pro Sekunde abgetastet, Frequenzen bis etwa 4000 Hz können dargestellt werden. Der Audiopuffer und damit der Vektor der Eingangsdaten hat in unserem Beispiel die Länge 8192. Somit haben wir jetzt ebensoviele komplexe Zahlen als Ergebnisvektor der fft. Die zugehörige Frequenz f eines Wertes aus c errechnet sich näherungsweise aus den vorgegebenen Parametern:

Der Ausdruck kann offensichtlich eine Größe von 0-4000 annehmen, was unseren Erwartungen entspricht. Ein wichtiges Detail ist hierbei, daß jeder Wert im Ergebnisvektor eine „Zentralfrequenz“ beschreibt - für jedes k verändert sich der Frequenzwert bei unserer Konfiguration um


Eine relativ grob auflösende Samplerate zusammen mit dem größeren Puffer minimiert den Fehler, während die feinere Abtastung und gleichzeitige Verkleinerung des Puffers das Frequenzraster (die Breite jedes Frequenzabschnitts wird auch „fft bin“ genannt) drastisch vergrößert.
Es gibt mehrere Arrays von der Länge des fft, jeweils einen für Frequenz, Notenname und pitch. Der Frequenzarray wird über die gesamte Länge initialisiert mit dem Wert

Die Samplerate geteilt durch die Größe des fft-Fensters ergibt die Bandbreite eines einzelnen Frequenzabschnitts. Über den Index i wird die Zentralfrequenz des jeweiligen Abschnitts bestimmt.
5.3 Tonhöhen und Namen
Das Programm braucht eine interne Repräsentation dessen, wie wir die Tonhöhen benennen. Gegeben zu einer im Eingangssignal ermittelten Frequenz muss es wissen, welcher Notenname zu der Frequenz gehört. Die zwölf Notennamen werden also über einen Index zugeordnet. Aber über welche Frequenzen reden wir hier eigentlich? Oftmals wird das a4 bei 440 Hz als Referenzton genannt. Von da aus kann ich - mit dem Wissen, dass eine Oktave die Frequenz verdoppelt - 880 Hz, 220 Hz oder 110 Hz ebenso als Töne mit dem Namen a identifizieren. Was aber passiert dazwischen? Vielleicht ist die Saite der Gitarre einen Halbton zu hoch gestimmt, oder die Saiten werden komplett gewechselt und haben gar keinen Ausgangswert.
Dadurch, dass sich die Frequenz über eine Oktave hinweg verdoppelt, wachsen die Oktaven nach oben hin exponentiell. Daher eignet sich zur Darstellung von Frequenzabständen die logarithmische Skala, welche wieder eine Äquidistanz zwischen den Halbtönen herstellt - während der Unterschied zwischen den eigentlichen Frequenzwerten immer ein anderer sein kann. Und nun wollen wir wissen, welche Frequenz der Halbton über a4 hat. Die Oktave - hier mit p=2 als Verdopplung angesehen - wird eingeteilt in zwölf Schritte gleichen Abstands:

Wenn ich eine Frequenz mit 2 multipliziere, erhalte ich ihre Oktave. Wenn ich nur um einen Halbton erhöhen möchte, sollte der Faktor sehr viel geringer sein. Um wie viel genau lässt sich errechnen, wenn die Ausgangsfrequenz und das Verhältnis r bekannt ist.

Ein Programm könnte nun die zu den Notennamen gehörenden Frequenzen rechnerisch erzeugen. In welcher Datenstruktur dies geschieht, ist wieder der Implementation überlassen.
5.4 Peak
Wie findet das Programm die Fundamentalfrequenz? Der gezeigte Code bestimmt die Energie der einzelnen Frequenzbänder (auf stackoverflow „fft magnitude“), indem die von der fft ausgegebene komplexe Zahl als Distanz interpretiert wird. Im einfachsten Fall wird über den Array der Ausgabewerte iteriert und so der höchste Wert ermittelt.
Die Fundamentalfrequenz der tiefen E-Saite der Gitarre liegt bei 82.5 Hz. Aber diese Frequenz ist in der fft magnitude bei den meisten Gitarren um ein Vielfaches leiser als der erste Oberton. Für eine zuverlässige Erkennung der Grundfrequenz ist die fft magnitude hier nicht aussagekräftig genug. Es kann sein, dass eine wahrgenommene Grundfrequenz im Spektrum nur sehr wenig zu sehen ist. Tonhöhe ist auch ein psychoakustisches Phänomen, das sich nicht notwendigerweise mit den von der fft generierten Daten deckt. Ob die Fourieranalyse mittels fft ein zuverlässiges Verfahren zur Tonhöhenerkennung sein kann, hängt also auch vom Einsatzbereich ab. Will man seine Gitarre in Stimmung bringen, und ist die fft der einzige verwendete Algorithmus, so bedarf er der Optimierung und Verbesserung.
6 Filter
Um das Problem der fehlenden Fundamentalfrequenzen zu minimieren, wird im Eingang des Signals vor der fft ein Tiefpassfilter eingesetzt. Es werden also nur Frequenzen bis zu einem gewissen Wert durchgelassen. Die ganz hohen Frequenzen können ja ohnehin nicht dargestellt werden. Und um hoch qualitatives Audio geht es bei einer Tuner-Anwendung auch nicht. Somit reduziert sich die Fehleranfälligkeit der fft, wenn höhere Frequenzen außer Acht gelassen werden. Auch nicht zum Instrumentenklang gehörende hochfrequente Störgeräusche fallen dadurch weg.
Zusätzlich werden Fensterfunktionen eingesetzt, die den Audio-Screenshot an den Seiten „abrunden“. Die Fouriertransformation „tut so“, als käme das Eingangssignal unendlich oft hintereinander. Daher reduziert ein weicher Einstieg auch hier den Fehler.
Teil III Synthesis
Während Aspekte der grafischen Interaktion mit dem Benutzer in dieser Auseinandersetzung nicht thematisiert wurden, ist die Implementation der zugrunde liegenden Funktionalität entfaltet worden. Die simple Verwendung einer fft-Bibliothek führt noch nicht zwingend zum richtigen Ergebnis. Allerdings stellt dies den ersten Schritt in Richtung einer Lösung der realen Anforderungen dar. Die Bühne des Problemfelds ist aufgebaut, auf welcher nun weitergehende Verfeinerungen und Verbesserungen stattfinden können.
Das Stimmen einer Gitarre erscheint hier als ein Sonderfall des umfassenderen Problemfeldes der Tonhöhenerkennung (im Internet „pitch detection“). Seit digitale elektronische Geräte klein genug werden konnten, werden sie als Stimmgeräte eingesetzt. Mit dem Einzug der Smartphones in unser Leben begann eine weitere kleine Revolution, was die Rechenleistung angeht. So ist die fft auf den meisten Geräten von der Rechenleistung her machbar. Allerdings ist der Prozeß dort nicht stehen geblieben und es gibt unzählige Algorithmen zur pitch detection. Die fft ist dort Teil einer größeren Kette von Berechnungen.
Mittwoch, 9. Dezember 2020
console curses guitar tuner is back - now on android ....
ccgt is now working on the android platform. You should be able to install it if your phone is not too old, minimum sdk version for the app is 23, target sdk version 29. In the beginning there was just the console. The code was just there and worked straightforward in c using ncurses. Still the ui simply uses characters, but now in a different world where threads rule. In the sinewave clock project below, the problem of manipulating the ui while in another thread was solved. Here, a handler posts the display update Thread as a Runnable twice a second.
ccgt-0.6.tar.xz
ccgt-0.6.apk
Up to here, the code is about as easy to follow as Bjoern Roche stated. It is usable, but has some flaws in it which makes performance poor for certain conditions. So the next goal will be optimization.

Guys, it's not just the fft ... you get a screenshot of the audio and some frequencies out of it. But in the end it's just a sequence of numbers ... telling you not too much about what's happening in front of your mic. The code already uses windowing and a lowpass filter on the input, and an additional moving average on the output. But still the display is somewhat chatty and not always on the correct fundamental. Further investigation is needed into how frequency peaks are to be found.
ccgt-0.6.tar.xz
ccgt-0.6.apk
Up to here, the code is about as easy to follow as Bjoern Roche stated. It is usable, but has some flaws in it which makes performance poor for certain conditions. So the next goal will be optimization.

Guys, it's not just the fft ... you get a screenshot of the audio and some frequencies out of it. But in the end it's just a sequence of numbers ... telling you not too much about what's happening in front of your mic. The code already uses windowing and a lowpass filter on the input, and an additional moving average on the output. But still the display is somewhat chatty and not always on the correct fundamental. Further investigation is needed into how frequency peaks are to be found.
Montag, 30. November 2020
Sinewave Clock on Android
So now the Sinewave Clock has gone to the Android Platform. It looks better than in SWT
Here's the sourcecode ..... Basically, a analog clock with rotating pointers is displayed. A LineChart below shows the y - height of the seconds pointer using MPAndroidChart library - thanks so much PhilJay!

Or if you want, feel free to download the SinewaveClock-1.0.apk


Or if you want, feel free to download the SinewaveClock-1.0.apk

Freitag, 13. November 2020
Sinewave Clock
Freitag, 6. November 2020
cv
Donnerstag, 5. November 2020
ccgt jumpin' to java
On the way into the world of gui's
ccgt is now ported to java. You can import it into eclipse as a maven project.
ccgt-0.3.tar.xz
The functionality is pretty basic, but the tuning algorithm is very good and accurate in my opinion. Definitely usable
You should set your default audio source to the appropriate value, otherwise the tuner won't work.
Thanks so much DeBukkIt for all the good instructions ... I really should buy you a cup of coffee!
https://www.youtube.com/user/DeBukkIt

ccgt-0.3.tar.xz
The functionality is pretty basic, but the tuning algorithm is very good and accurate in my opinion. Definitely usable

You should set your default audio source to the appropriate value, otherwise the tuner won't work.
Thanks so much DeBukkIt for all the good instructions ... I really should buy you a cup of coffee!
https://www.youtube.com/user/DeBukkIt
Dienstag, 3. November 2020
Die Ökonomie der Ideen
Die Ökonomie der Ideen
Alles, was Sie über geistiges Eigentum wissen, ist falsch.
von John Perry Barlow, veröffentlicht im Januar 1994.
Übersetzung Carsten Neubauer
Wenn die Natur irgendeine Sache weniger festlegbar als jedweden anderen exklusiven Besitz gemacht hat, so ist es die Handlung der denkenden Kraft, die Idee genannt wird, die ein Individuum exklusiv besitzen kann, so lange es sie für sich behält; jedoch im Moment ihrer Enthüllung zwingt sie sich in jedermanns Besitz, und der Empfänger kann sich ihrer nicht entledigen. Ihr besonderer Charakter ist außerdem, dass niemand weniger besitzt, da jeder sie als Ganzes besitzt. Derjenige, der eine Idee von mir empfängt, bekommt Information ohne meine zu mindern; genau wie jemand, der seine Fackel an meiner entzündet, Licht erhält ohne mich zu verdunkeln. Dass die Ideen sich frei vom einen zum anderen über den Globus verbreiten sollten, zur gegenseitigen und moralischen Unterrichtung des Menschen und der Verbesserung seines Zustands, scheint für Gedanken typisch und wohlwollend von der Natur so eingerichtet zu sein, da sie sie erschuf, wie Feuer, ausbreitungsfähig über den gesamten Raum, ohne ihre Dichte an irgendeinem Punkt zu verringern, und wie die Luft in der wir atmen, uns bewegen und unsere physische Existenz haben, jedweder Einschränkung oder exklusiven Inbesitznahme unfähig. Erfindungen können also nicht, von Natur aus, besessen werden.
-Thomas Jefferson
Während der gesamten Zeit, die ich im Cyberspace herumirrte, blieb ein tiefes Rätsel ungelöst, das die Wurzel jedes rechtlichen, ethischen, staatlichen und sozialen Ärgernisses in der virtuellen Welt zu sein scheint. Ich rede vom Problem des digitalisierten Besitzes.
Das Rätsel ist folgendes: Wenn unser Besitz unendlich reproduziert und sofort kostenlos über den ganzen Planeten verbreitet werden kann, ohne unser Wissen, ohne dass er überhaupt aufhört, unser Besitz zu sein, wie können wir ihn schützen? Wie werden wir bezahlt werden für die Arbeit, die unsere Gehirne leisten? Und, falls wir nicht bezahlt werden können, was wird die kontinuierliche Erschaffung und Verbreitung solcher Arbeiten sicherstellen?
Da wir keine Lösung für diese völlig neue Herausforderung haben und offensichtlich unfähig sind, die galloppierende Digitalisierung von allem, das nicht hartnäckig physisch ist, zu verzögern, segeln wir auf einem sinkenden Schiff in die Zukunft.
Dieses Schiff, der akkumulierte Kanon der Copyright- und Patentgesetze, wurde zum Tragen von Formen und Ausdrucksmethoden entwickelt, die sich komplett von der dunstigen Fracht, die es nun befördern soll, unterscheiden. Es ist von innen gleichermaßen wie von außen Leck geschlagen.
Rechtliche Versuche, das alte Boot am Sinken zu hindern, nehmen drei Formen an: Ein wildes Umstellen der Stühle an Deck, strenge Ermahnungen der Passagiere, dass kriminelle unter ihnen harte Strafen erwarten falls das Boot sinkt, sowie erhabenes, ausdrucksloses Dementieren.
Die Gesetzgebung zum intellektuellen Besitz kann genauso wenig geflickt, rückwirkend geändert oder erweitert werden um die Gase des digitalisierten Ausdrucks zu erfassen wie die Gesetze zum Grundeigentum überarbeitet werden könnten um die Zuweisung von Übertragungsfrequenzen zu regeln (Was tatsächlich eher dem entspricht, was hier versucht wird). Wir werden völlig neue Methoden entwickeln müssen, die diesen völlig neuen Umständen gerecht werden.
Die meisten Leute, die derzeit immaterielle Güter herstellen – die Programmierer, Hacker und Netzsurfer – wissen dies bereits. Unglücklicherweise haben weder die Firmen, für die sie arbeiten noch die Rechtsanwälte, die von diesen Firmen beauftragt werden, genügend direkte Erfahrung mit immateriellen Gütern um zu verstehen, warum diese so problematisch sind. Sie fahren fort als wären die alten Gesetze irgendwie wieder zum Funktionieren zu bekommen, entweder durch groteske Erweiterung oder mit Gewalt. Sie liegen falsch.
Der Ursprung dieses Rätsels ist so simpel wie seine Lösung komplex ist. Die digitale Technologie trennt Informationen von der physikalischen Ebene, auf der jedwedes Eigentumsrecht bisher immer seine Definition fand.
Die ganze Geschichte von Urheberrecht und Patenten hindurch waren die eigentumsrechtlichen Behauptungen der Denker nicht auf ihre Gedanken, sondern auf das Ausdrücken dieser Gedanken gerichtet. Die Gedanken selber wurden genau wie Fakten über die Phänomene der Welt als Kollektiveigentum der Menschheit angesehen. Im Fall des Copyrights konnte man auf den exakten Wortlaut, der einen bestimmten Gedanken transportiert oder die Reihenfolge, in der Fakten präsentiert werden Konzession verlangen.
Der Punkt an dem diese Konzession auferlegt wurde war der Moment in dem “das Wort Fleisch wurde”, indem es den Geist des Urhebers verläßt und in ein physikalisches Objekt, sei es ein Buch oder etwas anderes, eingeht. Das spätere Aufkommen anderer kommerzieller Medien änderte nichts an der rechtlichen Bedeutung dieses Moments. Das Gesetz schützte den Ausdruck und, mit einigen kürzlichen Ausnahmen, Ausdrücken bedeutete physisch machen.
Den physikalischen Ausdruck zu schützen hatte die Kraft der Praktikabilität auf seiner Seite. Das Copyright funktionierte gut, da es trotz Gutenberg schwierig war, ein Buch herzustellen. Außerdem froren Bücher ihren Inhalt in eine Form, die genau so schwierig zu verändern wie zu reproduzieren war. Das Fälschen oder die Verbreitung von gefälschten Exemplaren waren offensichtliche Aktivitäten, und jemanden bei einer solchen Aktivität zu erwischen war recht einfach. Schließlich hatten Bücher im Unterschied zu unbegrenzten Wörtern und Bildern materielle Oberflächen, auf denen sich Copyright-Notizen, Zeichen des Verlegers und Preisschilder anbringen ließen.
Die Konvertierung von Mentalem zu Physischem war noch zentraler für das Patent. Ein Patent war bis vor kurzem entweder eine Beschreibung der Form, in die bestimmte Materialien gebracht werden mussten um einem bestimmten Zweck zu dienen oder eine Beschreibung des Prozesses der Umformung. In beiden Fällen war das konzeptionelle Herz des Patents das materielle Resultat. Wenn durch materielle Beschränkung kein Zweck erfüllendes Objekt hergestellt werden konnte, wurde das Patent abgelehnt. Weder eine Kleinsche Flasche noch eine Schaufel aus Seide konnte patentiert werden. Es musste dinglich sein, und das Ding musste funktionieren.
Die Gesetze zur Erfindung und Autorschaft hielten sich also an Aktivitäten in der physischen Welt. Man wurde nicht für seine Ideen bezahlt, sondern für die Fähigkeit, sie in die Realität zu überführen. Für alle praktischen Zwecke war der Wert in der Beschreibung und nicht in der beschriebenen Idee.
In anderen Worten: Die Flasche war geschützt, nicht der Wein.
Jetzt, wo die Information in den Cyberspace eintritt, die Heimat des Geistes, verschwinden diese Flaschen. Mit dem Kommen der Digitalisierung ist es nun möglich, alle vorherigen Informationsaufbewahrungsverfahren durch eine meta-Flasche zu ersetzen: Komplexe – und höchst flüssige – Muster von Einsen und Nullen.
Selbst die physisch-/digitalen Flaschen an die wir uns gewöhnt haben, Floppy Disks, CD-ROMs und andere verschiedene, einschweißbare Bit-Pakete werden verschwinden, wenn alle Computer sich im globalen Netz zusammenschließen. Obwohl das Internet niemals jeden einzelnen CPU des Planeten enthalten wird, vergrößert es sich jedes Jahr um mehr als das Doppelte und könnte die Erwartung erfüllen, das wichtigste Medium zur Informationsübertragung der Zukunft zu werden, wenn nicht das einzige.
Sobald das passiert ist, werden sämtliche Güter des Informationszeitalters – all das, was einst in Büchern, Filmen, Schallplatten oder Zeitungen ausgedrückt wurde – nur noch als pure Gedanken oder etwas dem sehr ähnlichen existieren: Spannungszustände die mit Lichtgeschwindigkeit durch das Netz schießen, Zustände deren Effekt man als glühende Pixel oder übertragene Klänge beobachten kann, die man aber niemals berühren oder im alten Sinn des Wortes „besitzen“ kann.
Einige werden behaupten, dass Informationen immer noch eine physische Manifestation brauchen werden, wie ihre magnetische Existenz auf den titanischen Festplatten entfernter Server, aber diese sind Flaschen die keine makroskopisch unterscheidbare oder persönlich bedeutungsvolle Form haben.
Einige werden weiterhin behaupten, dass wir seit dem Kommen des Radios mit flaschenloser Expression umgehen, und sie hätten recht. Aber während der längsten Zeit der Geschichte der Rundfunkübertragung gab es keinen geeigneten Weg, um virtuelle Güter aus dem elektromagnetischen Äther aufzufangen und in der Qualität von kommerziellen Veröffentlichungen zu reproduzieren. Erst kürzlich hat sich dies geändert, und wenig wurde auf rechtlichem oder technischem Weg getan, um dem Wandel zu begegnen.
Generell war das Thema der Gebühren für Konsumenten auf Rundfunkprodukte irrelevant. Die Konsumenten waren selber das Produkt. Die Rundfunkmedien wurden unterstützt entweder durch das Verkaufen der Aufmerksamkeit ihres Publikums an Werbekunden, indem sie Zahlungen von der Regierung durch Steuern festlegen ließen, oder weinerliches Betteln an jährlichen Spendenkampagnen.
Alle Modelle zur Unterstützung des Rundfunks sind unzureichend. Die Unterstützung durch Werbekunden oder die Regierung hat fast immer die Reinheit der gelieferten Waren befleckt. Übrigens löst das Direktmarketing sowieso allmählich das Werbekunden-Unterstützungs-Modell ab.
Die Rundfunkmedien gaben uns eine andere Methode der Zahlung mit den Tantiemen, die Rundfunksender den Songschreibern über Organisationen wie die ASCAP oder BMI zahlen. Als ein Mitgleid der ASCAP kann ich ihnen jedoch versichern, dass dies kein Modell ist, dem wir nacheifern sollten. Die Überwachungsmethoden sind sehr ungefähr. Es gibt kein paralleles Abrechnungssystem im Einkommensstrom. Es funktioniert nicht wirklich. Ehrlich.
Ohne unsere alten Methoden der physischen Bestimmung des Ausdrucks von Gedanken und in Abwesenheit von erfolgreichen neuen Modellen für nicht-physische Transaktionen wissen wir auf jeden Fall einfach nicht, wie verlässliche Zahlungen für geistige Arbeit zu sichern sind. Um alles noch schlimmer zu machen kommt dies zu einer Zeit, in der der menschliche Geist Sonnenlicht und Mineralvorkommen als die hauptsächliche Quelle neuen Reichtums ablöst.
Weiterhin bringt die immer schwieriger werdende Durchsetzung der bestehenden Copyright- und Patentgesetze bereits die ultimative Quelle intellektuellen Eigentums, den freien Austausch von Ideen, in Gefahr.
Wenn also die primären Artikel des Kommerzes in einer Gesellschaft so sehr nach Sprache aussehen, dass sie von ihr ununterscheidbar sind, und wenn die traditionellen Methoden zum Schutz ihres Besitztums ineffektiv geworden sind, so muss der Versuch, das Problem durch breitere und energischere Durchsetzung zu lösen unweigerlich die freie Meinungsäußerung bedrohen.
Die stärksten Einschränkungen ihrer zukünftigen Freiheiten könnte nicht von der Regierung sondern aus Rechtsabteilungen von Unternehmen kommen, die arbeiten um mit Gewalt das zu schützen, was nicht länger durch praktische Effizienz oder generellen sozialen Konsens geschützt werden kann.
Weiterhin, als Jefferson und seine Kreaturen aus „The Enlightenment“ das System entwarfen, das amerikanisches Copyright wurde, war ihr oberstes Ziel die weite Verbreitung von Gedanken, nicht Profit. Profit war der Treibstoff, der die Gedanken in die Bibliotheken und Geister ihrer neuen Republik tragen würde. Die Bibliotheken würden Bücher kaufen und damit die Autoren für ihre Arbeit der Zusammenstellung von Ideen entlohnen, die ansonsten unfähig der Beschränkung der Öffentlichkeit frei verfügbar würden. Aber was ist die Rolle der Bibliotheken, wenn es keine Bücher gibt? Wie bezahlt die Gesellschaft jetzt für die Versorgung mit Gedanken wenn nicht durch Berechnung für die Gedanken selbst?
Zusätzlich wird die Lage kompliziert durch die Tatsache, dass die digitale Technologie mit den physischen Flaschen, in denen der Schutz des intellektuellen Besitzes ruhte, auch die Rechtssprechung der physischen Welt auslöscht und sie durch die grenzenlosen und vielleicht permanent gesetzlosen Ozeanen des Cyberspace ersetzt.
Nicht nur sind im Cyberspace keine nationalen oder lokalen Grenzen vorhanden, die einen Tatort eingrenzen und die Methode der Bestrafung bestimmen, es gibt auch keine klaren kulturellen Übereinkünfte darüber, was ein Verbrechen sein könnte. Ungelöste und grundlegende Differenzen zwischen europäischen und asiatischen kulturellen Annahmen über intellektuellen Besitz können in einer Region, in der viele Transaktionen in beiden Hemisphären und doch irgendwie in keiner stattfinden, nur verschlimmert werden.
Sogar in den lokalsten der digitalen Umstände sind Rechtssprechung und Verantwortung schwierig anzusetzen. Eine Gruppe von Musikverlegern beantragte in diesem Herbst ein Verfahren gegen Compuserve wegen deren Erlaubnis an ihre User, musikalische Kompositionen in Bereiche hochzuladen wo andere User diese bekommen könnten. Aber da Compuserve in der Praxis wenig Kontrolle über die Flut von Bits, die zwischen den Teilnehmern fließt, ausüben kann, sollte die Firma wohl nicht für die unrechtmäßige „Veröffentlichung“ dieser Werke verantwortlich gemacht werden.
Vorstellungen von Besitz, Wert, Eigentum und die Natur des Reichtums selbst wandeln sich fundamentaler als jemals seit die Sumerer das erste Mal keilförmige Zeichen in nassen Ton/Lehm stießen und es vorrätiges Getreide nannten. Nur sehr wenige Menschen sind sich der Enormität dieses Wandels bewußt und noch weniger unter ihnen sind Anwälte oder öffentliche Amtsträger.
Diejenigen, die die Veränderung sehen, müssen Antworten für die rechtliche und soziale Konfusion vorbereiten, die ausbrechen wird, während Anstrengungen zum Schützen neuer Formen von Eigentum durch alte Methoden immer deutlicher stur und, in Konsequenz, sinnlos werden.
Von Schwertern zu Gesetzesrollen zu Bits
Die Menschheit scheint derzeit eine Vorliebe dafür zu haben, eine Weltwirtschaftsordnung zu errichten die primär auf Waren basiert, die keine materielle Form annehmen. Dadurch könnten wir jede vorhersagbare Verbindung zwischen Schöpfern und einer fairen Belohnung für den Zweck oder die Freude, die andere in ihren Werken finden, auslöschen.
Ohne diese Verbindung und ohne einen fundamentalen Wandel im Bewusstsein, um ihren Verlust auszugleichen, bauen wir unsere Zukunft auf Aufruhr, Rechtsstreite und institutionalisierte Vermeidung der Zahlung außer bei Anwendung roher Gewalt. Wir können zurückkehren zu den schlechten alten Tagen des Eigentums.
Während der dunkleren Zeiten der menschlichen Geschichte war Besitz und die Verteilung von Eigentum eine militärische Angelegenheit. „Eigentümerschaft“ war denjenigen mit den hässlichsten Werkzeugen vergönnt, ob Fäuste oder Armeen, und dem resolutesten Willen, sie zu nutzen. Eigentum war das göttliche Recht von Schlägern.
An der Wende des ersten Jahrtausends A.D. zwang das Aufkommen von Händlerklassen und Landbesitzern zur Entwicklung ethischen Verständnisses für die Lösung von Eigentumsstreitigkeiten. Im späten Mittelalter begannen erleuchtete Regenten wie Englands Henry II. dieses ungeschriebene „allgemeine Gesetz“ niedergeschriebenen Kanons zu kodifizieren. Diese Gesetze waren lokal, aber dies spielte keine große Rolle, da sie hauptsächlich auf Grundbesitz abzielten, eine Form des Besitzes, die durch ihre Definition lokal ist. Und die, wie der [englischsprachige] Name impliziert, sehr real war1.
Dies war weiterhin der Fall, solange die Herkunft des Reichtums die Landwirtschaft war, aber mit der Dämmerung der industriellen Revolution fing die Menschheit an, sich genau so auf Mittel wie auf Zwecke zu fokussieren. Werkzeuge erlangten einen neuen sozialen Wert, und dank ihrer eigenen Weiterentwicklung wurde es möglich, sie in Mengen zu duplizieren und zu verbreiten.
Um ihre Entwicklung zu fördern wurden in den meisten westlichen Ländern Urheberrechts- und Patentrechte entwickelt. Diese Gesetze waren der heiklen Aufgabe verschrieben, geistige Schöpfungen in die Welt zu entlassen, wo sie gebraucht werden konnten - und in den Geist anderer eintreten – während ihren Erfindern eine Kompensation für den Wert ihres Gebrauchs gesichert wurde. Und, wie zuvor erwähnt, sowohl die Systeme der Gesetze als auch der Praxis die um diese Aufgabe herum aufwuchsen basierten auf physikalischer Expression.
Da es nun möglich ist, Gedanken vom einen Geist zum anderen zu übermitteln, ohne sie jemals physisch zu machen, beanspruchen wir nun, die Gedanken selber zu besitzen, und nicht lediglich ihren Ausdruck. Und da es ebenso möglich ist, nützliche Werkzeuge zu erschaffen, die niemals physikalische Form annehmen, sind wir dazu übergegangen Abstraktionen, virtuelle Ereignisketten und mathematische Formeln zu patentieren – der unwirklichste Besitz, den man sich vorstellen kann.
In bestimmten Bereichen lässt dies die Eigentumsrechte in einem solch zweideutigen Zustand, dass Besitz wieder einmal denen, die die größten Armeen antreten lassen können, zufällt. Der Unterschied besteht nur darin, dass die Armeen dieses Mal aus Rechtsanwälten bestehen.
Während sie ihren Gegnern mit dem endlosen Fegefeuer des Gerichtsprozesses drohen, demgegenüber einige den Tod selber vorziehen könnten, behaupten sie einen Anspruch auf jeden Gedanken der innerhalb des Kollektivs der Vereinigungen, für die sie arbeiten, in einen anderen Schädel gelangt sein könnte. Sie handeln, als ob diese Ideen in perfekter Trennung von allem vorherigen menschlichen Denken auftauchten. Und sie täuschen vor, dass über ein Produkt nachzudenken irgendwie genauso gut ist wie es herzustellen, es zu liefern und zu verkaufen.
Was vorher als allgemeine menschliche Ressource angesehen wurde, über Geister und Bibliotheken der Welt verbreitet, wird nun eingezäunt und in Besitz genommen. Es ist als ob eine neue Art von Unternehmen sich erhoben hätte, das für sich in Anspruch nähme, Luft und Wasser zu besitzen.
Was muss getan werden? Obwohl ein gewisser verbitterter Spaß darin besteht, wird ein Tanz auf dem Grab des Copyrights und des Patents wenige Probleme lösen, besonders wenn nur so wenige zugeben, dass der Bewohner dieses Grabes überhaupt tot ist und viele aufrechtzuerhalten versuchen, was nicht länger durch allgemeine Zustimmung aufrecht gehalten werden kann.
Alles, was Sie über geistiges Eigentum wissen, ist falsch.
von John Perry Barlow, veröffentlicht im Januar 1994.
Übersetzung Carsten Neubauer
Wenn die Natur irgendeine Sache weniger festlegbar als jedweden anderen exklusiven Besitz gemacht hat, so ist es die Handlung der denkenden Kraft, die Idee genannt wird, die ein Individuum exklusiv besitzen kann, so lange es sie für sich behält; jedoch im Moment ihrer Enthüllung zwingt sie sich in jedermanns Besitz, und der Empfänger kann sich ihrer nicht entledigen. Ihr besonderer Charakter ist außerdem, dass niemand weniger besitzt, da jeder sie als Ganzes besitzt. Derjenige, der eine Idee von mir empfängt, bekommt Information ohne meine zu mindern; genau wie jemand, der seine Fackel an meiner entzündet, Licht erhält ohne mich zu verdunkeln. Dass die Ideen sich frei vom einen zum anderen über den Globus verbreiten sollten, zur gegenseitigen und moralischen Unterrichtung des Menschen und der Verbesserung seines Zustands, scheint für Gedanken typisch und wohlwollend von der Natur so eingerichtet zu sein, da sie sie erschuf, wie Feuer, ausbreitungsfähig über den gesamten Raum, ohne ihre Dichte an irgendeinem Punkt zu verringern, und wie die Luft in der wir atmen, uns bewegen und unsere physische Existenz haben, jedweder Einschränkung oder exklusiven Inbesitznahme unfähig. Erfindungen können also nicht, von Natur aus, besessen werden.
-Thomas Jefferson
Während der gesamten Zeit, die ich im Cyberspace herumirrte, blieb ein tiefes Rätsel ungelöst, das die Wurzel jedes rechtlichen, ethischen, staatlichen und sozialen Ärgernisses in der virtuellen Welt zu sein scheint. Ich rede vom Problem des digitalisierten Besitzes.
Das Rätsel ist folgendes: Wenn unser Besitz unendlich reproduziert und sofort kostenlos über den ganzen Planeten verbreitet werden kann, ohne unser Wissen, ohne dass er überhaupt aufhört, unser Besitz zu sein, wie können wir ihn schützen? Wie werden wir bezahlt werden für die Arbeit, die unsere Gehirne leisten? Und, falls wir nicht bezahlt werden können, was wird die kontinuierliche Erschaffung und Verbreitung solcher Arbeiten sicherstellen?
Da wir keine Lösung für diese völlig neue Herausforderung haben und offensichtlich unfähig sind, die galloppierende Digitalisierung von allem, das nicht hartnäckig physisch ist, zu verzögern, segeln wir auf einem sinkenden Schiff in die Zukunft.
Dieses Schiff, der akkumulierte Kanon der Copyright- und Patentgesetze, wurde zum Tragen von Formen und Ausdrucksmethoden entwickelt, die sich komplett von der dunstigen Fracht, die es nun befördern soll, unterscheiden. Es ist von innen gleichermaßen wie von außen Leck geschlagen.
Rechtliche Versuche, das alte Boot am Sinken zu hindern, nehmen drei Formen an: Ein wildes Umstellen der Stühle an Deck, strenge Ermahnungen der Passagiere, dass kriminelle unter ihnen harte Strafen erwarten falls das Boot sinkt, sowie erhabenes, ausdrucksloses Dementieren.
Die Gesetzgebung zum intellektuellen Besitz kann genauso wenig geflickt, rückwirkend geändert oder erweitert werden um die Gase des digitalisierten Ausdrucks zu erfassen wie die Gesetze zum Grundeigentum überarbeitet werden könnten um die Zuweisung von Übertragungsfrequenzen zu regeln (Was tatsächlich eher dem entspricht, was hier versucht wird). Wir werden völlig neue Methoden entwickeln müssen, die diesen völlig neuen Umständen gerecht werden.
Die meisten Leute, die derzeit immaterielle Güter herstellen – die Programmierer, Hacker und Netzsurfer – wissen dies bereits. Unglücklicherweise haben weder die Firmen, für die sie arbeiten noch die Rechtsanwälte, die von diesen Firmen beauftragt werden, genügend direkte Erfahrung mit immateriellen Gütern um zu verstehen, warum diese so problematisch sind. Sie fahren fort als wären die alten Gesetze irgendwie wieder zum Funktionieren zu bekommen, entweder durch groteske Erweiterung oder mit Gewalt. Sie liegen falsch.
Der Ursprung dieses Rätsels ist so simpel wie seine Lösung komplex ist. Die digitale Technologie trennt Informationen von der physikalischen Ebene, auf der jedwedes Eigentumsrecht bisher immer seine Definition fand.
Die ganze Geschichte von Urheberrecht und Patenten hindurch waren die eigentumsrechtlichen Behauptungen der Denker nicht auf ihre Gedanken, sondern auf das Ausdrücken dieser Gedanken gerichtet. Die Gedanken selber wurden genau wie Fakten über die Phänomene der Welt als Kollektiveigentum der Menschheit angesehen. Im Fall des Copyrights konnte man auf den exakten Wortlaut, der einen bestimmten Gedanken transportiert oder die Reihenfolge, in der Fakten präsentiert werden Konzession verlangen.
Der Punkt an dem diese Konzession auferlegt wurde war der Moment in dem “das Wort Fleisch wurde”, indem es den Geist des Urhebers verläßt und in ein physikalisches Objekt, sei es ein Buch oder etwas anderes, eingeht. Das spätere Aufkommen anderer kommerzieller Medien änderte nichts an der rechtlichen Bedeutung dieses Moments. Das Gesetz schützte den Ausdruck und, mit einigen kürzlichen Ausnahmen, Ausdrücken bedeutete physisch machen.
Den physikalischen Ausdruck zu schützen hatte die Kraft der Praktikabilität auf seiner Seite. Das Copyright funktionierte gut, da es trotz Gutenberg schwierig war, ein Buch herzustellen. Außerdem froren Bücher ihren Inhalt in eine Form, die genau so schwierig zu verändern wie zu reproduzieren war. Das Fälschen oder die Verbreitung von gefälschten Exemplaren waren offensichtliche Aktivitäten, und jemanden bei einer solchen Aktivität zu erwischen war recht einfach. Schließlich hatten Bücher im Unterschied zu unbegrenzten Wörtern und Bildern materielle Oberflächen, auf denen sich Copyright-Notizen, Zeichen des Verlegers und Preisschilder anbringen ließen.
Die Konvertierung von Mentalem zu Physischem war noch zentraler für das Patent. Ein Patent war bis vor kurzem entweder eine Beschreibung der Form, in die bestimmte Materialien gebracht werden mussten um einem bestimmten Zweck zu dienen oder eine Beschreibung des Prozesses der Umformung. In beiden Fällen war das konzeptionelle Herz des Patents das materielle Resultat. Wenn durch materielle Beschränkung kein Zweck erfüllendes Objekt hergestellt werden konnte, wurde das Patent abgelehnt. Weder eine Kleinsche Flasche noch eine Schaufel aus Seide konnte patentiert werden. Es musste dinglich sein, und das Ding musste funktionieren.
Die Gesetze zur Erfindung und Autorschaft hielten sich also an Aktivitäten in der physischen Welt. Man wurde nicht für seine Ideen bezahlt, sondern für die Fähigkeit, sie in die Realität zu überführen. Für alle praktischen Zwecke war der Wert in der Beschreibung und nicht in der beschriebenen Idee.
In anderen Worten: Die Flasche war geschützt, nicht der Wein.
Jetzt, wo die Information in den Cyberspace eintritt, die Heimat des Geistes, verschwinden diese Flaschen. Mit dem Kommen der Digitalisierung ist es nun möglich, alle vorherigen Informationsaufbewahrungsverfahren durch eine meta-Flasche zu ersetzen: Komplexe – und höchst flüssige – Muster von Einsen und Nullen.
Selbst die physisch-/digitalen Flaschen an die wir uns gewöhnt haben, Floppy Disks, CD-ROMs und andere verschiedene, einschweißbare Bit-Pakete werden verschwinden, wenn alle Computer sich im globalen Netz zusammenschließen. Obwohl das Internet niemals jeden einzelnen CPU des Planeten enthalten wird, vergrößert es sich jedes Jahr um mehr als das Doppelte und könnte die Erwartung erfüllen, das wichtigste Medium zur Informationsübertragung der Zukunft zu werden, wenn nicht das einzige.
Sobald das passiert ist, werden sämtliche Güter des Informationszeitalters – all das, was einst in Büchern, Filmen, Schallplatten oder Zeitungen ausgedrückt wurde – nur noch als pure Gedanken oder etwas dem sehr ähnlichen existieren: Spannungszustände die mit Lichtgeschwindigkeit durch das Netz schießen, Zustände deren Effekt man als glühende Pixel oder übertragene Klänge beobachten kann, die man aber niemals berühren oder im alten Sinn des Wortes „besitzen“ kann.
Einige werden behaupten, dass Informationen immer noch eine physische Manifestation brauchen werden, wie ihre magnetische Existenz auf den titanischen Festplatten entfernter Server, aber diese sind Flaschen die keine makroskopisch unterscheidbare oder persönlich bedeutungsvolle Form haben.
Einige werden weiterhin behaupten, dass wir seit dem Kommen des Radios mit flaschenloser Expression umgehen, und sie hätten recht. Aber während der längsten Zeit der Geschichte der Rundfunkübertragung gab es keinen geeigneten Weg, um virtuelle Güter aus dem elektromagnetischen Äther aufzufangen und in der Qualität von kommerziellen Veröffentlichungen zu reproduzieren. Erst kürzlich hat sich dies geändert, und wenig wurde auf rechtlichem oder technischem Weg getan, um dem Wandel zu begegnen.
Generell war das Thema der Gebühren für Konsumenten auf Rundfunkprodukte irrelevant. Die Konsumenten waren selber das Produkt. Die Rundfunkmedien wurden unterstützt entweder durch das Verkaufen der Aufmerksamkeit ihres Publikums an Werbekunden, indem sie Zahlungen von der Regierung durch Steuern festlegen ließen, oder weinerliches Betteln an jährlichen Spendenkampagnen.
Alle Modelle zur Unterstützung des Rundfunks sind unzureichend. Die Unterstützung durch Werbekunden oder die Regierung hat fast immer die Reinheit der gelieferten Waren befleckt. Übrigens löst das Direktmarketing sowieso allmählich das Werbekunden-Unterstützungs-Modell ab.
Die Rundfunkmedien gaben uns eine andere Methode der Zahlung mit den Tantiemen, die Rundfunksender den Songschreibern über Organisationen wie die ASCAP oder BMI zahlen. Als ein Mitgleid der ASCAP kann ich ihnen jedoch versichern, dass dies kein Modell ist, dem wir nacheifern sollten. Die Überwachungsmethoden sind sehr ungefähr. Es gibt kein paralleles Abrechnungssystem im Einkommensstrom. Es funktioniert nicht wirklich. Ehrlich.
Ohne unsere alten Methoden der physischen Bestimmung des Ausdrucks von Gedanken und in Abwesenheit von erfolgreichen neuen Modellen für nicht-physische Transaktionen wissen wir auf jeden Fall einfach nicht, wie verlässliche Zahlungen für geistige Arbeit zu sichern sind. Um alles noch schlimmer zu machen kommt dies zu einer Zeit, in der der menschliche Geist Sonnenlicht und Mineralvorkommen als die hauptsächliche Quelle neuen Reichtums ablöst.
Weiterhin bringt die immer schwieriger werdende Durchsetzung der bestehenden Copyright- und Patentgesetze bereits die ultimative Quelle intellektuellen Eigentums, den freien Austausch von Ideen, in Gefahr.
Wenn also die primären Artikel des Kommerzes in einer Gesellschaft so sehr nach Sprache aussehen, dass sie von ihr ununterscheidbar sind, und wenn die traditionellen Methoden zum Schutz ihres Besitztums ineffektiv geworden sind, so muss der Versuch, das Problem durch breitere und energischere Durchsetzung zu lösen unweigerlich die freie Meinungsäußerung bedrohen.
Die stärksten Einschränkungen ihrer zukünftigen Freiheiten könnte nicht von der Regierung sondern aus Rechtsabteilungen von Unternehmen kommen, die arbeiten um mit Gewalt das zu schützen, was nicht länger durch praktische Effizienz oder generellen sozialen Konsens geschützt werden kann.
Weiterhin, als Jefferson und seine Kreaturen aus „The Enlightenment“ das System entwarfen, das amerikanisches Copyright wurde, war ihr oberstes Ziel die weite Verbreitung von Gedanken, nicht Profit. Profit war der Treibstoff, der die Gedanken in die Bibliotheken und Geister ihrer neuen Republik tragen würde. Die Bibliotheken würden Bücher kaufen und damit die Autoren für ihre Arbeit der Zusammenstellung von Ideen entlohnen, die ansonsten unfähig der Beschränkung der Öffentlichkeit frei verfügbar würden. Aber was ist die Rolle der Bibliotheken, wenn es keine Bücher gibt? Wie bezahlt die Gesellschaft jetzt für die Versorgung mit Gedanken wenn nicht durch Berechnung für die Gedanken selbst?
Zusätzlich wird die Lage kompliziert durch die Tatsache, dass die digitale Technologie mit den physischen Flaschen, in denen der Schutz des intellektuellen Besitzes ruhte, auch die Rechtssprechung der physischen Welt auslöscht und sie durch die grenzenlosen und vielleicht permanent gesetzlosen Ozeanen des Cyberspace ersetzt.
Nicht nur sind im Cyberspace keine nationalen oder lokalen Grenzen vorhanden, die einen Tatort eingrenzen und die Methode der Bestrafung bestimmen, es gibt auch keine klaren kulturellen Übereinkünfte darüber, was ein Verbrechen sein könnte. Ungelöste und grundlegende Differenzen zwischen europäischen und asiatischen kulturellen Annahmen über intellektuellen Besitz können in einer Region, in der viele Transaktionen in beiden Hemisphären und doch irgendwie in keiner stattfinden, nur verschlimmert werden.
Sogar in den lokalsten der digitalen Umstände sind Rechtssprechung und Verantwortung schwierig anzusetzen. Eine Gruppe von Musikverlegern beantragte in diesem Herbst ein Verfahren gegen Compuserve wegen deren Erlaubnis an ihre User, musikalische Kompositionen in Bereiche hochzuladen wo andere User diese bekommen könnten. Aber da Compuserve in der Praxis wenig Kontrolle über die Flut von Bits, die zwischen den Teilnehmern fließt, ausüben kann, sollte die Firma wohl nicht für die unrechtmäßige „Veröffentlichung“ dieser Werke verantwortlich gemacht werden.
Vorstellungen von Besitz, Wert, Eigentum und die Natur des Reichtums selbst wandeln sich fundamentaler als jemals seit die Sumerer das erste Mal keilförmige Zeichen in nassen Ton/Lehm stießen und es vorrätiges Getreide nannten. Nur sehr wenige Menschen sind sich der Enormität dieses Wandels bewußt und noch weniger unter ihnen sind Anwälte oder öffentliche Amtsträger.
Diejenigen, die die Veränderung sehen, müssen Antworten für die rechtliche und soziale Konfusion vorbereiten, die ausbrechen wird, während Anstrengungen zum Schützen neuer Formen von Eigentum durch alte Methoden immer deutlicher stur und, in Konsequenz, sinnlos werden.
Von Schwertern zu Gesetzesrollen zu Bits
Die Menschheit scheint derzeit eine Vorliebe dafür zu haben, eine Weltwirtschaftsordnung zu errichten die primär auf Waren basiert, die keine materielle Form annehmen. Dadurch könnten wir jede vorhersagbare Verbindung zwischen Schöpfern und einer fairen Belohnung für den Zweck oder die Freude, die andere in ihren Werken finden, auslöschen.
Ohne diese Verbindung und ohne einen fundamentalen Wandel im Bewusstsein, um ihren Verlust auszugleichen, bauen wir unsere Zukunft auf Aufruhr, Rechtsstreite und institutionalisierte Vermeidung der Zahlung außer bei Anwendung roher Gewalt. Wir können zurückkehren zu den schlechten alten Tagen des Eigentums.
Während der dunkleren Zeiten der menschlichen Geschichte war Besitz und die Verteilung von Eigentum eine militärische Angelegenheit. „Eigentümerschaft“ war denjenigen mit den hässlichsten Werkzeugen vergönnt, ob Fäuste oder Armeen, und dem resolutesten Willen, sie zu nutzen. Eigentum war das göttliche Recht von Schlägern.
An der Wende des ersten Jahrtausends A.D. zwang das Aufkommen von Händlerklassen und Landbesitzern zur Entwicklung ethischen Verständnisses für die Lösung von Eigentumsstreitigkeiten. Im späten Mittelalter begannen erleuchtete Regenten wie Englands Henry II. dieses ungeschriebene „allgemeine Gesetz“ niedergeschriebenen Kanons zu kodifizieren. Diese Gesetze waren lokal, aber dies spielte keine große Rolle, da sie hauptsächlich auf Grundbesitz abzielten, eine Form des Besitzes, die durch ihre Definition lokal ist. Und die, wie der [englischsprachige] Name impliziert, sehr real war1.
Dies war weiterhin der Fall, solange die Herkunft des Reichtums die Landwirtschaft war, aber mit der Dämmerung der industriellen Revolution fing die Menschheit an, sich genau so auf Mittel wie auf Zwecke zu fokussieren. Werkzeuge erlangten einen neuen sozialen Wert, und dank ihrer eigenen Weiterentwicklung wurde es möglich, sie in Mengen zu duplizieren und zu verbreiten.
Um ihre Entwicklung zu fördern wurden in den meisten westlichen Ländern Urheberrechts- und Patentrechte entwickelt. Diese Gesetze waren der heiklen Aufgabe verschrieben, geistige Schöpfungen in die Welt zu entlassen, wo sie gebraucht werden konnten - und in den Geist anderer eintreten – während ihren Erfindern eine Kompensation für den Wert ihres Gebrauchs gesichert wurde. Und, wie zuvor erwähnt, sowohl die Systeme der Gesetze als auch der Praxis die um diese Aufgabe herum aufwuchsen basierten auf physikalischer Expression.
Da es nun möglich ist, Gedanken vom einen Geist zum anderen zu übermitteln, ohne sie jemals physisch zu machen, beanspruchen wir nun, die Gedanken selber zu besitzen, und nicht lediglich ihren Ausdruck. Und da es ebenso möglich ist, nützliche Werkzeuge zu erschaffen, die niemals physikalische Form annehmen, sind wir dazu übergegangen Abstraktionen, virtuelle Ereignisketten und mathematische Formeln zu patentieren – der unwirklichste Besitz, den man sich vorstellen kann.
In bestimmten Bereichen lässt dies die Eigentumsrechte in einem solch zweideutigen Zustand, dass Besitz wieder einmal denen, die die größten Armeen antreten lassen können, zufällt. Der Unterschied besteht nur darin, dass die Armeen dieses Mal aus Rechtsanwälten bestehen.
Während sie ihren Gegnern mit dem endlosen Fegefeuer des Gerichtsprozesses drohen, demgegenüber einige den Tod selber vorziehen könnten, behaupten sie einen Anspruch auf jeden Gedanken der innerhalb des Kollektivs der Vereinigungen, für die sie arbeiten, in einen anderen Schädel gelangt sein könnte. Sie handeln, als ob diese Ideen in perfekter Trennung von allem vorherigen menschlichen Denken auftauchten. Und sie täuschen vor, dass über ein Produkt nachzudenken irgendwie genauso gut ist wie es herzustellen, es zu liefern und zu verkaufen.
Was vorher als allgemeine menschliche Ressource angesehen wurde, über Geister und Bibliotheken der Welt verbreitet, wird nun eingezäunt und in Besitz genommen. Es ist als ob eine neue Art von Unternehmen sich erhoben hätte, das für sich in Anspruch nähme, Luft und Wasser zu besitzen.
Was muss getan werden? Obwohl ein gewisser verbitterter Spaß darin besteht, wird ein Tanz auf dem Grab des Copyrights und des Patents wenige Probleme lösen, besonders wenn nur so wenige zugeben, dass der Bewohner dieses Grabes überhaupt tot ist und viele aufrechtzuerhalten versuchen, was nicht länger durch allgemeine Zustimmung aufrecht gehalten werden kann.
Freitag, 30. Oktober 2020
Why DMCA? Global village, people!
Interview 22-1-2003 mit John Perry Barlow
John Perry Barlow ist Mitbegründer der Electronic Frontier Foundation (EFF) und Fellow am
Berkman Center for Internet and Society der Harvard Law School. Außerdem war er Texter der
Gruppe Grateful Dead.
politik-digital: 1998 unterschrieb Bill Clinton den Digital Millennium Copyright Act (DMCA),
gemäß den WIPO (World Intellectual Property Organization) -Verträgen. Wo liegen Ihrer
Meinung nach die größten Fehler des DMCA, die größten Verletzungen von Freiheiten der
Bürger?
John Perry Barlow: Der größte Fehler des DMCA ist, dass die Verknüpfung von Gesetzgebung und
technischem Fortschritt dort zu einer Monopolbildung führt, wo man gerade kein Monopol haben will – im
demokratischen Prozess. Für den demokratischen Prozess ist es unverzichtbar, dass verschiedene
Sichtweisen dargestellt werden können und eine einfache und offene Kommunikation möglich ist. Doch ein
Gesetz wie DMCA bringt die großen Medienunternehmen in den Besitz alles Gedachten und Gesagten –
und das betrifft auch jene Ideen, die schon längst frei zugänglich und nicht urheberrechtlich geschützt sind.
So wird eine faire Nutzung von Ideen und Informationen drastisch eingeschränkt, vor allem weil das
Copyright auf Bereiche angewandt wird, für die es nicht vorgesehen war. IBM benutzt z.B. das Gesetz, um
den Gebrauch und den Absatz ihrer Druckerpatronen zu schützen. Wenn jemand die Druckerpatronen von
IBM nachbaut, macht er sich strafbar [Es dürfen also nur IBM-Patronen in die IBM-Drucker, Anm. d. Ü.]. Und
das ist nur eines von vielen Beispielen. Das andere Problem des Gesetzes ist der Versuch, die Infrastruktur
von Computern und Internet neu zu definieren.
politik-digital: Es gab schon vor DMCA Copyright-Gesetze. Worin unterscheidet sich der DMCA von seinen
Vorgängern?
John Perry Barlow: Durch den DMCA werden Behälter ermöglicht, die man nicht legal öffnen kann.
Gleichzeitig kann man Inhalte in diese Behälter bringen, die eigentlich schon im öffentlichen Raum stehen –
eine Art plötzliche Privatisierung, die einen beträchtlichen Flankenschutz vom Gesetzgeber erhält. Erscheint
beispielsweise Alice im Wunderland als elektronisches Buch – der Urheberschutz von Alice im Wunderland
ist ja schon lange abgelaufen – und jemand will sich das Buch, dann muss er den Kopierschutz brechen. Hat
man ein Tool, um den Kopierschutz zu brechen, dann landet man im Gefängnis wie der russische
Programmierer, der in den Vereinigten Staaten inhaftiert wurde.
politik-digital: Das Ganze erinnert ein bisschen an die Debatte über Verschlüsselung vor einigen Jahren.
Da versuchte der Staat auch, Einschränkungen von Kryptographie vorzunehmen, in dem technische
Schranken gegen die Verbreitung starker Verschlüsselungsverfahren eingeführt werden sollten. Im Endeffekt
konnten die staatlichen Akteure ihre Position aber nur sehr begrenzt durchsetzen, oder?
John Perry Barlow: Das erinnert mich ganz stark an die Debatte über Verschlüsselung, an der ich ja aktiv
beteiligt war. Aber was die Copyright-Gesetze angeht, bin ich nicht halb so optimistisch. Denn in der
Auseinandersetzung um die Verschlüsselung waren wir in der Lage zu zeigen, dass die Beschränkung der
Verschlüsselung-Algorithmen ein direkter Eingriff in das Recht auf Redefreiheit war. Die Einschränkungen
waren verfassungswidrig. Was den DMCA betrifft, scheinen sich die Richter entschieden zu haben, die
Verfassung zu ignorieren. Bei allem, was wir vor Gericht gegen den DMCA vorgebracht haben, hat das
Gericht die verfassungsrechtlichen Bedenken nicht einmal in Betracht gezogen.
Das ist ziemlich offensichtlich: Wir hatten z.B. einen Fall, wo der Beklagte auf seiner Website Links zu
DeCSS gesetzt hatte, den Entschlüsselungscode für DVDs. Es waren nur Links! Er wurde verurteilt, gegen
den DMCA verstoßen zu haben, für etwas, dass ich klar und deutlich Ausübung der Redefreiheit nennen
würde.
politik-digital: Bei der Frage um Verschlüsselung spielte die American Civil Liberties Union (ACLU) einen
wichtige Rolle. Gibt es eine Zusammenarbeit mit der ACLU gegen den DMCA?
John Perry Barlow: Die ACLU beschäftigt sich nur äußerst widerwillig und langsam mit diesem Thema.
Denn sie wissen, dass sie damit ihre traditionelle Basis gegen sich aufbringen, die Unterhaltungsindustrie.
Ich habe einmal einen Preis von ACLU bekommen und es gab ein großes, festliches Hollywood-Dinner. Als
ich den Preis entgegen nahm, wurde ich fast von der Bühne gebuht. Ich habe ihnen nämlich gesagt, dass sie
– wenn ihnen wirklich etwas an der Redefreiheit liegen würde – sich noch einmal über das Copyright
Gedanken machen müssten. Die Unterhaltungsindustrie ist immer so lange für die Redefreiheit, wie es ihren
Geschäften nützt.
politik-digital: In den USA ist der Teil der DMCA, der am meisten in der Kritik steht, in Überarbeitung, der
Abschnitt 1201. Glauben Sie, dass die Fehler, die Sie gerade angesprochen haben, behoben werden
können?
John Perry Barlow: Ich weiß es nicht. Der Kongressabgeordnete Rick Boucher hat gerade eine
Gesetzesvorlage eingebracht, die den Verbraucherschutz in Bezug auf den DMCA wieder herstellen will.
Allerdings weiß ich nicht, ob der Entwurf verabschiedet wird oder nicht.
In der Zwischenzeit greift die Unterhaltungsindustrie hart durch und schafft neue technische
Beschränkungen gegen die Redefreiheit und die Verbreitung von Informationen. Besonders beängstigend
ist, dass Intel, Microsoft und einige Chiphersteller jetzt mit dem Model des „trusted computing“ aus der
Deckung kommen, was soviel heißen soll, dass du deinem Computer trauen kannst. Es bedeutet aber nichts
anderes, als dass Microsoft deinem Computer trauen kann und Hollywood deinem Computer trauen kann.
Da findet Digital Rights Management (DRM) direkt in der Hardware und dem Betriebssystem statt!
politik-digital: Wie sollten denn Digital Rights gesichert werden? Songwriter, Autoren und Sänger haben
doch schließlich auch ein berechtigtes Interesse an Kopierschutz.
John Perry Barlow: Ich bin ja selbst Songwriter. Das derzeitige System hat doch riesige Tücken und Fehler.
Heute werden einem professionellen Durchschnittsmusiker für Urheberrechte weniger als sechshundert
Dollar pro Jahr gezahlt. Den Rest behalten die Musikkonzerne. Es ist also ein Trugschluss, dass dieses
Gesetz die Rechte der Texter und Musiker schützt.
Meiner Meinung nach ist es in unserem Interesse, dass unsere Arbeit verbreitet wird. Für Musik und andere
immaterielle Produkte im Allgemeinen gelten meiner Meinung nach auch andere Regeln als für materielle
Produkte. Bei materiellen Produkten gibt es einen Zusammenhang zwischen Verfügbarkeit (Knappheit) und
Wert: ein knappes Gut ist teurer. Bei Musik und Gedanken gibt es aber einen Zusammenhang zwischen
Vertrautheit und Wert.
Das zeigt meine persönliche Erfahrung mit den Grateful Dead ganz deutlich. Wir haben unsere Arbeit auch
kostenlos zugänglich gemacht, als wir anfingen, erfolgreich zu sein. Und interessanterweise verkauften sich
alle unsere CDs äußerst gut, gerade weil wir Mitschnitte von unseren Konzerten erlaubten und frei
zugänglich machten.
Was wir vor allem im Auge behalten müssen, sind die Rechte der Songwriter und Autoren, und nicht die der
großen Institutionen. Denn die sind nur daran interessiert, die digitale Verbreitung abzuwürgen.
politik-digital: Aber ist das nicht eher ein moralisches Problem?
John Perry Barlow: Es ist auch ein wirtschaftliches Problem. Philosophisch müssen wir den Begriff
„geistiges Eigentum“ komplett neu überdenken, obwohl es ein noch junger Begriff ist. Vor vierzig Jahren gab
es so etwas noch nicht. Bei der Einführung des Rechts auf und den Schutz des „geistigen Eigentums“
handelte es sich zunächst um einen Schutz der Idee für eine bestimmte, und zwar relativ begrenzte Zeit.
Aber auch schon damals hat man geistiges Eigentum nicht wirklich besessen und ich halte es für irreführend
zu glauben, dass man es jetzt besitzt. Das wäre, als würde man Freundschaften besitzen.
Es sind Dienstleistungen, und keine Produkte. Also müssen wir sie auch wie Dienstleistungen behandeln,
denn man kann – wie schon gesagt – immaterielle Güter nicht als Produkte definieren. Tut man das aber, so
führt das dazu, dass die Leute Tauschbörsen im Netz als ebenso kriminell ansehen wie den Ladendiebstahl.
Da gibt es aber einen großen Unterschied. Wenn du in einen Laden gehst und ein Kleidungsstück klaust, ist
es weg. Die Ware und ihr wirtschaftlicher Wert ist für das Geschäft verloren. Wenn du im Netz einen meiner
Songs runterlädst, habe ich ihn immer noch. Er wird sogar wertvoller, wenn ihn mehr Leute haben.
Wir müssen also die wirtschaftlichen Regeln überdenken. Der bestehende Kopierschutz ist völlig
ausreichend, so lange es das geistige Eigentum schützt, in dem es nur die Container, die Behälter des
geistigen Eigentums, reguliert. Wenn es aber das reguliert, was die Wirtschaft Content nennt, ist das ein
falsches Model. Denn Content hat keinen Container. Also müssen wir uns etwas anderes einfallen lassen.
politik-digital: Nehmen wir einen Verleger, der ein Buch druckt – das Buch ist hierbei der regulierte
Container – und es später elektronisch zugänglich macht, sagen wir als pdf oder ebook. Welches Interesse
hätte ein Verleger einen Autor zu veröffentlichen. Oder brauchen wir bald keine Verleger mehr?
John Perry Barlow: Vielleicht werden die Verleger überflüssig. Ich glaube aber sie werden es nicht, denn
momentan werden mehr Bücher verkauft als je zuvor. Und noch einmal, ich glaube, es gibt eine Symbiose
zwischen dem Verkauf von diesen Containern und der Online-Verfügbarkeit ihres Inhalts. Nehmen wir die
Filmindustrie. Ich kann jeden Film bekommen bevor er angelaufen ist und dennoch: Die Filmindustrie macht
mehr Umsatz als je zuvor. Ich kann jede DVD umsonst bekommen, aber der DVD-Verkauf steigt weiter.
Wieso? Ich denke, es gibt Interesse der Verleger, weiterhin Bücher in physischer Form zu veröffentlichen
und sie dann online zugänglich zu machen. Denn ich glaube, niemand will ein Buch auf dem Computer
lesen. Ich zumindest nicht!
politik-digital: Und wenn sich elektronisches Papier durchsetzt...
John Perry Barlow: Lassen Sie uns über elektronisches Papier sprechen, wenn es wirklich auf dem Markt ist.
Lassen Sie uns über Probleme sprechen, wenn sie sich abzeichnen, denn wir wissen nicht, ob alle
Vorhersagen eintreffen. Viele Einschätzungen über den Einfluss des Internets haben sich als falsch
herausgestellt.
politik-digital: Sie sagen also, der DMCA oder das deutsche Gesetz, sind auf eine völlig digitalisierte Welt
zugeschnitten, eine Welt in der die Computer Bücher und Theater ersetzen?
John Perry Barlow: Genau, aber so eine Welt existiert noch nicht und wird vielleicht niemals existieren. Und
wenn man die gesamte Architektur des Informationssystems auf eine Situation zuschneidet, die vielleicht nie
eintreten wird, ist das unmoralisch. Wir müssen als Gesellschaft für Experimente offen sein und so das
effizienteste Geschäftsmodell finden. Die European Union Copyright Directive (EUCD) macht genau das
Gegenteil. Sie verbaut die Möglichkeit für Experimente und spielt damit wenigen großen
Medienunternehmen in die Hände. Diese Unternehmen haben die Direktive in der EU durchgedrückt und
drücken jetzt sie in Deutschland, Frankreich und den anderen Mitgliedstaaten durch.
politik-digital: Sie engagieren sich vor allem global. Die DMCA und das deutsche Gesetz setzen die
internationalen WIPO-Verträge um...
John Perry Barlow: Aber die WIPO-Verträge wurden von der Unterhaltungsindustrie in Hollywood diktiert...
politik-digital: Sind die Nationalstaaten dann nicht der falsche Ansprechpartner? Die nationalen
Gesetzgeber behaupten, die WIPO-Verträge und die EUCD ließen keinen Spielraum: „Es gibt diese Verträge
und wir müssen sie in nationales Recht umsetzen...“
John Perry Barlow: Dass die Entscheidungen in den großen Institutionen wie WIPO und EUCD gefällt
werden, ist ein Problem. Bisher habe ich noch niemand kennen gelernt, der für WIPO arbeitet und vorher
nicht in der Medienindustrie oder dem Lizenzierungsgeschäft tätig war. WIPO und Medienindustrie sind ein
und das selbe. Die Öffentlichkeit hat keine vernünftige Möglichkeit, diesen Prozess zu beeinflussen.
politik-digital: Sehen Sie hier einen Wandel? Die Diskussionen um eDemokratie fand in den neunziger
Jahren immer auch auf globaler Ebene statt. Auch die Electronic Frontier Foundation (EFF) operiert global
und erreicht mit relativ wenig Leuten ziemlich viel. Ist es unmöglich mit Bertelsmann und AOL Time-Warner
zu konkurrieren?
John Perry Barlow: Für eine so kleine Organisation wie die EFF, die sich mit der gesamten Industrie
angelegt hat, schlagen wir uns sehr erfolgreich. Wir gewinnen öfter als wir verlieren.
Aber auf dem Level der EU ist es sehr schwierig, Einfluss auszuüben. Die einzige Möglichkeit für die
Öffentlichkeit wieder in diesen Prozess einzutreten, ist die nationalstaatliche Ebene. Ich kann mir nicht
vorstellen, die nötigen Ressourcen aus europäischer Ebene zu sammeln, die die EUCD in Brüssel hätten
verhindern können. Aber ich kann mir so eine Koalition in Deutschland vorstellen oder in Frankreich. Und
genau das versuchen wir.
politik-digital: Nehmen wir an, es gäbe keinen DMCA. Microsoft könnte immer noch technische
Beschränkungen in die Software bauen wie etwa die Registrierung von Windows oder die Benachteiligung
von Programmen von Drittanbietern. Können Marktkräfte dieses Problem lösen?
John Perry Barlow: Es gab eine Zeit, da war jede Software kopiergeschützt, und es gab Firmen, die ganz
legal Codes produziert haben, mit denen man den Kopierschutz knacken konnte. Die Firmen haben alle
Codes geknackt und letztlich hat die Software-Industrie verstanden, dass die Leute keinen Kopierschutz
wollen. Die Industrie hat das akzeptiert, denn trotz der Software-Piraterie verkauften sich die Programme
sehr gut. Würde heute so etwas passieren, würde der Verkäufer von solchen Codes angeklagt. Das ist aber
schlecht für den Wettbewerb und die technische Entwicklung.
politik-digital: Was ist ihr Ratschlag an die deutschen Gesetzgeber?
John Perry Barlow: Der deutsche Gesetzgeber sollte sich fragen, ob der wirtschaftliche Schaden so groß ist,
dass es sich lohnt, solche riskanten Langzeit-Effekte in Kauf zu nehmen. Ich glaube nicht, dass eine
Demokratie funktioniert, wenn eine kleine Interessengruppe alle Informationen besitzt. Wie Mussolini sagte:
„Faschismus sollte Korporatismus heißen, weil es die effektive Vermischung von Kapitalgesellschaft und
Staat ist.“
politik-digital: In Deutschland konzentriert sich die Diskussion auf das Thema „Privatkopie“. Trifft es die
privaten Nutzer am Stärksten?
John Perry Barlow: Wir wollen digitale Informationen effektiv nutzen und
wir müssen in der Lage sein, uns zwischen verschiedenen Umgebungen zu bewegen. Wie viele Computer
haben Sie gehabt? Nach 18 Monaten ist ein Computer veraltet. Wenn nur eine Kopie erlaubt ist, muss man
sich beim nächsten Computer alles neu kaufen. Das ist eine sehr große wirtschaftliche Belastung für alle
Computernutzer zugunsten einer kleinen Anzahl Herstellern.
Außerdem ist das Teilen und Tauschen für Menschen die natürlichste Sache der Welt. Das ist fundamental
für menschliches Verhalten, den wir bereichern den Geist, indem wir kreative Arbeit teilen. Nur so blüht
Kreativität. Ich meine, es gibt viele Gründe dafür, dieses Gesetz zu verhindern.
politik-digital: Gab es Fälle in den USA, in denen User, die eine Privatkopie gemacht haben, vor Gericht
gestellt wurden?
John Perry Barlow: Bis jetzt noch nicht. Bisher wurde der DMCA auf CDs und Software mit Kopierschutz
angewandt. Die Musik und Bücher waren lange nicht kopiergeschützt. Das hat erst jetzt angefangen und so
langsam bekommen die Menschen den wahren Druck des DMCA zu spüren. Anfangs konnte der
Kopierschutz konnte mit einem einfachen Filzstift umgangen werden.
politik-digital: Aber ist das nicht die Lösung: Kopierschutz kann größtenteils technisch umgangen werden,
indem man den Kopierschutz mir Software oder einem Extra-Chip umgeht? Man kann doch schon jetzt
Mikrochips kaufen und damit seine Playstation modifizieren und kopierte Spiele und DVDs abspielen. Wäre
das die richtige Antwort auf ein falsches Gesetz?
John Perry Barlow: Ich halte es für eine sehr schlechte Idee, Gesetze zu verabschieden, die dann von der
Gesellschaft ignoriert werden. Daraus ergibt sich nur eine generelle Ablehnung des Rechtssystems. Und
meiner Meinung nach hat die Gesellschaft schon gezeigt was sie von Kopierschutz hält.
politik-digital: Und die technische Lösung, die wir gerade angesprochen haben, bevorzugt diejenigen, die
wissen, wo man solche Chips und Cracks bekommt.
John Perry Barlow: Das Gesetz benachteiligt die Alten und technisch Ahnungslosen und begünstigt die
Jungen und technisch Bewanderten. Das sieht nicht aus wie eine gerechte Sache.
politik-digital: Es kommt zu einer neuen digitalen Spaltung...
John Perry Barlow: Ja, eine neue digitale Spaltung, die bisher größte Spaltung zwischen jung und alt, die
ich kenne. Ich würde es sogar noch drastischer ausdrücken. Wir sollten uns nicht in der Hoffnung
zurücklehnen, dass Anarchie wird das Problem schon lösen wird. Ich glaube nicht, dass Anarchie eine gute
Lösung für irgend etwas ist.
politik-digital: Muss die Antwort auf technische Beschränkung nicht eine technische Antwort sein?
John Perry Barlow: Das wäre der Idealfall. Doch hier liegt das Problem von DMCA und EUCD. Gesetz und
Technologie entfalten gemeinsam eine ungeheure Macht.
politik-digital: Denken Sie an Lawrence Lessig’s „Code-is-law“, wo das Medium „Recht“ neben Infrastruktur
und Marktkräften nur eines Regulierungsmitteln ist. Spielt „Recht“ wirklich noch eine so wichtige Rolle?
John Perry Barlow: Als Larry diese Zeile geschrieben hat, war ich anderer Meinung, weil ich viel
misstrauischer gegenüber Regierungen und Gesetzen bin als er. Aber ich war bereit zu glauben, dass wir
das Medium „Recht“ brauchen, um das übereifrige Verhalten der Protektionisten zu korrigieren. Allerdings
wurde „Recht“ dann zum Verbündeten der Protektionisten. Larrys Vorschlag wollte den technischen Zwang
auflösen, hat ihn am Ende aber vergrößert. Es tut mir Leid, dass die Dinge mit Unterstützung des Rechts
schlimmer geworden sind.
Auch in Deutschland wird sich die Lage mit diesem Gesetz verschlechtern. Aber es ist furchtbar schwierig,
öffentliche Aufmerksamkeit für dieses Thema zu bekommen. Wenn du in einem Gespräch, das sich bis dato
mit Fußball beschäftigt hat, anfängst über digitale Reche zu sprechen, wirst du kein beliebter Kerl.
politik-digital: War die EFF in der Global Internet Liberty Campaign (GILC)?
John Perry Barlow: Ja und sie ist es immer noch. Aber auch für eine Organisation wie die UN, die viel Geld
von den Nationalstaaten bekommt, ist es schwierig eine globale Kampagne zu führen. Die einzigen globalen
Kampagnen, die funktionieren, sind die von McDonalds und Nike.
politik-digital: Setzen Sie Hoffnungen in die World Summit of Information Society (WSIS)?
John Perry Barlow: Nein, nicht wirklich. Ich kann mich irren, aber es sieht eher so aus, als ob das Ganze
von den üblichen Verdächtigen auf die Beine gestellt worden ist. Das ist eine Veranstaltung der
Medienunternehmen.
politik-digital: Und der Gipfel findet in der International Telecommunications Union (ITU) statt und das ist
Big Business...
John Perry Barlow: Ja, die PTTs (Post, Telegrafen- und Telekomunikationsunternehmen, Anm. d. R.) sind
dabei, und die sind einer Meinung mit den Medienunternehmen. Es gibt natürlich Ausnahmen, aber für
gewöhnlich sind ihre Interessen die selben.
Das aggressive Verhalten der Medienriesen stimmt mich aber auch optimistisch. Es erinnert mich an die
letzten Tage des Kommunismus. Ich glaube, sie wissen, dass mehr und mehr Druck und Zwang nicht mehr
funktionieren wird. Der Wind hat sich gedreht.
politik-digital: Der Plattenindustrie schwimmen also die Felle weg und deshalb klammern sie sich an den
DMCA?
John Perry Barlow: Ihr Wirtschaftsmodell passt nicht mehr in die Umgebung, in der sie operieren. Die
Vorstellung, eine Wirtschaft mit immateriellen Produkten, immateriellen Dienstleistungen könnte nicht
gedeihen, ist lächerlich. Sie wird gedeihen! Mit welchem Wirtschaftssystem, das muss sich noch zeigen.
Aber deswegen einfach am alten System festzuhalten ist dumm.
politik-digital: Ihre Einschätzung lässt ein bisschen Hoffnung: Auch wenn Gesetze wie der DMCA
verabschiedet werden, ist noch nicht alles platt gewalzt, denn in ein paar Jahren kann alles wieder ganz
anders aussehen.
John Perry Barlow: Dennoch sollten wir nicht die Zeit damit verschwenden, Fehler zu machen, die wir
später korrigieren müssen, denn so kann dauerhafter Schaden entstehen.
Wenn erst einmal die Architektur des Internet im Sinne von DRM grundlegend geändert ist, ergibt das einen
ausgezeichneten Überwachungs- und Kontrollmechanismus für Redefreiheit. Das bleibt für immer. Die
Platten- und Filmindustrie kann ihr Geschäftsmodell vollständig ändern, aber wenn wir das Internet einmal in
diesem Sinne umstrukturiert haben, dann kann man das nicht mehr rückgängig machen. Das ist die eine
Sache.
Die andere Sache ist, dass die Medienkonzerne einen großen Teil unserer Geschichte löschen werden.
Werke der letzten hundertfünfzig Jahre, die nicht mehr unter Copyright stehen, werden niemals digitalisiert
werden. Wir werden einen großen Teil des menschlichen Wissens verlieren.
politik-digital: Mr. Barlow, vielen Dank für dieses Interview.
Das Interview führte: Dr. Harald Neymanns
Übersetzt von: Jens Mau
Der Titel wurde – als Content ohne Container – gestiftet von: Jan Engelmann, Journalistenbüro Acker 10,
Berlin
John Perry Barlow ist Mitbegründer der Electronic Frontier Foundation (EFF) und Fellow am
Berkman Center for Internet and Society der Harvard Law School. Außerdem war er Texter der
Gruppe Grateful Dead.
politik-digital: 1998 unterschrieb Bill Clinton den Digital Millennium Copyright Act (DMCA),
gemäß den WIPO (World Intellectual Property Organization) -Verträgen. Wo liegen Ihrer
Meinung nach die größten Fehler des DMCA, die größten Verletzungen von Freiheiten der
Bürger?
John Perry Barlow: Der größte Fehler des DMCA ist, dass die Verknüpfung von Gesetzgebung und
technischem Fortschritt dort zu einer Monopolbildung führt, wo man gerade kein Monopol haben will – im
demokratischen Prozess. Für den demokratischen Prozess ist es unverzichtbar, dass verschiedene
Sichtweisen dargestellt werden können und eine einfache und offene Kommunikation möglich ist. Doch ein
Gesetz wie DMCA bringt die großen Medienunternehmen in den Besitz alles Gedachten und Gesagten –
und das betrifft auch jene Ideen, die schon längst frei zugänglich und nicht urheberrechtlich geschützt sind.
So wird eine faire Nutzung von Ideen und Informationen drastisch eingeschränkt, vor allem weil das
Copyright auf Bereiche angewandt wird, für die es nicht vorgesehen war. IBM benutzt z.B. das Gesetz, um
den Gebrauch und den Absatz ihrer Druckerpatronen zu schützen. Wenn jemand die Druckerpatronen von
IBM nachbaut, macht er sich strafbar [Es dürfen also nur IBM-Patronen in die IBM-Drucker, Anm. d. Ü.]. Und
das ist nur eines von vielen Beispielen. Das andere Problem des Gesetzes ist der Versuch, die Infrastruktur
von Computern und Internet neu zu definieren.
politik-digital: Es gab schon vor DMCA Copyright-Gesetze. Worin unterscheidet sich der DMCA von seinen
Vorgängern?
John Perry Barlow: Durch den DMCA werden Behälter ermöglicht, die man nicht legal öffnen kann.
Gleichzeitig kann man Inhalte in diese Behälter bringen, die eigentlich schon im öffentlichen Raum stehen –
eine Art plötzliche Privatisierung, die einen beträchtlichen Flankenschutz vom Gesetzgeber erhält. Erscheint
beispielsweise Alice im Wunderland als elektronisches Buch – der Urheberschutz von Alice im Wunderland
ist ja schon lange abgelaufen – und jemand will sich das Buch, dann muss er den Kopierschutz brechen. Hat
man ein Tool, um den Kopierschutz zu brechen, dann landet man im Gefängnis wie der russische
Programmierer, der in den Vereinigten Staaten inhaftiert wurde.
politik-digital: Das Ganze erinnert ein bisschen an die Debatte über Verschlüsselung vor einigen Jahren.
Da versuchte der Staat auch, Einschränkungen von Kryptographie vorzunehmen, in dem technische
Schranken gegen die Verbreitung starker Verschlüsselungsverfahren eingeführt werden sollten. Im Endeffekt
konnten die staatlichen Akteure ihre Position aber nur sehr begrenzt durchsetzen, oder?
John Perry Barlow: Das erinnert mich ganz stark an die Debatte über Verschlüsselung, an der ich ja aktiv
beteiligt war. Aber was die Copyright-Gesetze angeht, bin ich nicht halb so optimistisch. Denn in der
Auseinandersetzung um die Verschlüsselung waren wir in der Lage zu zeigen, dass die Beschränkung der
Verschlüsselung-Algorithmen ein direkter Eingriff in das Recht auf Redefreiheit war. Die Einschränkungen
waren verfassungswidrig. Was den DMCA betrifft, scheinen sich die Richter entschieden zu haben, die
Verfassung zu ignorieren. Bei allem, was wir vor Gericht gegen den DMCA vorgebracht haben, hat das
Gericht die verfassungsrechtlichen Bedenken nicht einmal in Betracht gezogen.
Das ist ziemlich offensichtlich: Wir hatten z.B. einen Fall, wo der Beklagte auf seiner Website Links zu
DeCSS gesetzt hatte, den Entschlüsselungscode für DVDs. Es waren nur Links! Er wurde verurteilt, gegen
den DMCA verstoßen zu haben, für etwas, dass ich klar und deutlich Ausübung der Redefreiheit nennen
würde.
politik-digital: Bei der Frage um Verschlüsselung spielte die American Civil Liberties Union (ACLU) einen
wichtige Rolle. Gibt es eine Zusammenarbeit mit der ACLU gegen den DMCA?
John Perry Barlow: Die ACLU beschäftigt sich nur äußerst widerwillig und langsam mit diesem Thema.
Denn sie wissen, dass sie damit ihre traditionelle Basis gegen sich aufbringen, die Unterhaltungsindustrie.
Ich habe einmal einen Preis von ACLU bekommen und es gab ein großes, festliches Hollywood-Dinner. Als
ich den Preis entgegen nahm, wurde ich fast von der Bühne gebuht. Ich habe ihnen nämlich gesagt, dass sie
– wenn ihnen wirklich etwas an der Redefreiheit liegen würde – sich noch einmal über das Copyright
Gedanken machen müssten. Die Unterhaltungsindustrie ist immer so lange für die Redefreiheit, wie es ihren
Geschäften nützt.
politik-digital: In den USA ist der Teil der DMCA, der am meisten in der Kritik steht, in Überarbeitung, der
Abschnitt 1201. Glauben Sie, dass die Fehler, die Sie gerade angesprochen haben, behoben werden
können?
John Perry Barlow: Ich weiß es nicht. Der Kongressabgeordnete Rick Boucher hat gerade eine
Gesetzesvorlage eingebracht, die den Verbraucherschutz in Bezug auf den DMCA wieder herstellen will.
Allerdings weiß ich nicht, ob der Entwurf verabschiedet wird oder nicht.
In der Zwischenzeit greift die Unterhaltungsindustrie hart durch und schafft neue technische
Beschränkungen gegen die Redefreiheit und die Verbreitung von Informationen. Besonders beängstigend
ist, dass Intel, Microsoft und einige Chiphersteller jetzt mit dem Model des „trusted computing“ aus der
Deckung kommen, was soviel heißen soll, dass du deinem Computer trauen kannst. Es bedeutet aber nichts
anderes, als dass Microsoft deinem Computer trauen kann und Hollywood deinem Computer trauen kann.
Da findet Digital Rights Management (DRM) direkt in der Hardware und dem Betriebssystem statt!
politik-digital: Wie sollten denn Digital Rights gesichert werden? Songwriter, Autoren und Sänger haben
doch schließlich auch ein berechtigtes Interesse an Kopierschutz.
John Perry Barlow: Ich bin ja selbst Songwriter. Das derzeitige System hat doch riesige Tücken und Fehler.
Heute werden einem professionellen Durchschnittsmusiker für Urheberrechte weniger als sechshundert
Dollar pro Jahr gezahlt. Den Rest behalten die Musikkonzerne. Es ist also ein Trugschluss, dass dieses
Gesetz die Rechte der Texter und Musiker schützt.
Meiner Meinung nach ist es in unserem Interesse, dass unsere Arbeit verbreitet wird. Für Musik und andere
immaterielle Produkte im Allgemeinen gelten meiner Meinung nach auch andere Regeln als für materielle
Produkte. Bei materiellen Produkten gibt es einen Zusammenhang zwischen Verfügbarkeit (Knappheit) und
Wert: ein knappes Gut ist teurer. Bei Musik und Gedanken gibt es aber einen Zusammenhang zwischen
Vertrautheit und Wert.
Das zeigt meine persönliche Erfahrung mit den Grateful Dead ganz deutlich. Wir haben unsere Arbeit auch
kostenlos zugänglich gemacht, als wir anfingen, erfolgreich zu sein. Und interessanterweise verkauften sich
alle unsere CDs äußerst gut, gerade weil wir Mitschnitte von unseren Konzerten erlaubten und frei
zugänglich machten.
Was wir vor allem im Auge behalten müssen, sind die Rechte der Songwriter und Autoren, und nicht die der
großen Institutionen. Denn die sind nur daran interessiert, die digitale Verbreitung abzuwürgen.
politik-digital: Aber ist das nicht eher ein moralisches Problem?
John Perry Barlow: Es ist auch ein wirtschaftliches Problem. Philosophisch müssen wir den Begriff
„geistiges Eigentum“ komplett neu überdenken, obwohl es ein noch junger Begriff ist. Vor vierzig Jahren gab
es so etwas noch nicht. Bei der Einführung des Rechts auf und den Schutz des „geistigen Eigentums“
handelte es sich zunächst um einen Schutz der Idee für eine bestimmte, und zwar relativ begrenzte Zeit.
Aber auch schon damals hat man geistiges Eigentum nicht wirklich besessen und ich halte es für irreführend
zu glauben, dass man es jetzt besitzt. Das wäre, als würde man Freundschaften besitzen.
Es sind Dienstleistungen, und keine Produkte. Also müssen wir sie auch wie Dienstleistungen behandeln,
denn man kann – wie schon gesagt – immaterielle Güter nicht als Produkte definieren. Tut man das aber, so
führt das dazu, dass die Leute Tauschbörsen im Netz als ebenso kriminell ansehen wie den Ladendiebstahl.
Da gibt es aber einen großen Unterschied. Wenn du in einen Laden gehst und ein Kleidungsstück klaust, ist
es weg. Die Ware und ihr wirtschaftlicher Wert ist für das Geschäft verloren. Wenn du im Netz einen meiner
Songs runterlädst, habe ich ihn immer noch. Er wird sogar wertvoller, wenn ihn mehr Leute haben.
Wir müssen also die wirtschaftlichen Regeln überdenken. Der bestehende Kopierschutz ist völlig
ausreichend, so lange es das geistige Eigentum schützt, in dem es nur die Container, die Behälter des
geistigen Eigentums, reguliert. Wenn es aber das reguliert, was die Wirtschaft Content nennt, ist das ein
falsches Model. Denn Content hat keinen Container. Also müssen wir uns etwas anderes einfallen lassen.
politik-digital: Nehmen wir einen Verleger, der ein Buch druckt – das Buch ist hierbei der regulierte
Container – und es später elektronisch zugänglich macht, sagen wir als pdf oder ebook. Welches Interesse
hätte ein Verleger einen Autor zu veröffentlichen. Oder brauchen wir bald keine Verleger mehr?
John Perry Barlow: Vielleicht werden die Verleger überflüssig. Ich glaube aber sie werden es nicht, denn
momentan werden mehr Bücher verkauft als je zuvor. Und noch einmal, ich glaube, es gibt eine Symbiose
zwischen dem Verkauf von diesen Containern und der Online-Verfügbarkeit ihres Inhalts. Nehmen wir die
Filmindustrie. Ich kann jeden Film bekommen bevor er angelaufen ist und dennoch: Die Filmindustrie macht
mehr Umsatz als je zuvor. Ich kann jede DVD umsonst bekommen, aber der DVD-Verkauf steigt weiter.
Wieso? Ich denke, es gibt Interesse der Verleger, weiterhin Bücher in physischer Form zu veröffentlichen
und sie dann online zugänglich zu machen. Denn ich glaube, niemand will ein Buch auf dem Computer
lesen. Ich zumindest nicht!
politik-digital: Und wenn sich elektronisches Papier durchsetzt...
John Perry Barlow: Lassen Sie uns über elektronisches Papier sprechen, wenn es wirklich auf dem Markt ist.
Lassen Sie uns über Probleme sprechen, wenn sie sich abzeichnen, denn wir wissen nicht, ob alle
Vorhersagen eintreffen. Viele Einschätzungen über den Einfluss des Internets haben sich als falsch
herausgestellt.
politik-digital: Sie sagen also, der DMCA oder das deutsche Gesetz, sind auf eine völlig digitalisierte Welt
zugeschnitten, eine Welt in der die Computer Bücher und Theater ersetzen?
John Perry Barlow: Genau, aber so eine Welt existiert noch nicht und wird vielleicht niemals existieren. Und
wenn man die gesamte Architektur des Informationssystems auf eine Situation zuschneidet, die vielleicht nie
eintreten wird, ist das unmoralisch. Wir müssen als Gesellschaft für Experimente offen sein und so das
effizienteste Geschäftsmodell finden. Die European Union Copyright Directive (EUCD) macht genau das
Gegenteil. Sie verbaut die Möglichkeit für Experimente und spielt damit wenigen großen
Medienunternehmen in die Hände. Diese Unternehmen haben die Direktive in der EU durchgedrückt und
drücken jetzt sie in Deutschland, Frankreich und den anderen Mitgliedstaaten durch.
politik-digital: Sie engagieren sich vor allem global. Die DMCA und das deutsche Gesetz setzen die
internationalen WIPO-Verträge um...
John Perry Barlow: Aber die WIPO-Verträge wurden von der Unterhaltungsindustrie in Hollywood diktiert...
politik-digital: Sind die Nationalstaaten dann nicht der falsche Ansprechpartner? Die nationalen
Gesetzgeber behaupten, die WIPO-Verträge und die EUCD ließen keinen Spielraum: „Es gibt diese Verträge
und wir müssen sie in nationales Recht umsetzen...“
John Perry Barlow: Dass die Entscheidungen in den großen Institutionen wie WIPO und EUCD gefällt
werden, ist ein Problem. Bisher habe ich noch niemand kennen gelernt, der für WIPO arbeitet und vorher
nicht in der Medienindustrie oder dem Lizenzierungsgeschäft tätig war. WIPO und Medienindustrie sind ein
und das selbe. Die Öffentlichkeit hat keine vernünftige Möglichkeit, diesen Prozess zu beeinflussen.
politik-digital: Sehen Sie hier einen Wandel? Die Diskussionen um eDemokratie fand in den neunziger
Jahren immer auch auf globaler Ebene statt. Auch die Electronic Frontier Foundation (EFF) operiert global
und erreicht mit relativ wenig Leuten ziemlich viel. Ist es unmöglich mit Bertelsmann und AOL Time-Warner
zu konkurrieren?
John Perry Barlow: Für eine so kleine Organisation wie die EFF, die sich mit der gesamten Industrie
angelegt hat, schlagen wir uns sehr erfolgreich. Wir gewinnen öfter als wir verlieren.
Aber auf dem Level der EU ist es sehr schwierig, Einfluss auszuüben. Die einzige Möglichkeit für die
Öffentlichkeit wieder in diesen Prozess einzutreten, ist die nationalstaatliche Ebene. Ich kann mir nicht
vorstellen, die nötigen Ressourcen aus europäischer Ebene zu sammeln, die die EUCD in Brüssel hätten
verhindern können. Aber ich kann mir so eine Koalition in Deutschland vorstellen oder in Frankreich. Und
genau das versuchen wir.
politik-digital: Nehmen wir an, es gäbe keinen DMCA. Microsoft könnte immer noch technische
Beschränkungen in die Software bauen wie etwa die Registrierung von Windows oder die Benachteiligung
von Programmen von Drittanbietern. Können Marktkräfte dieses Problem lösen?
John Perry Barlow: Es gab eine Zeit, da war jede Software kopiergeschützt, und es gab Firmen, die ganz
legal Codes produziert haben, mit denen man den Kopierschutz knacken konnte. Die Firmen haben alle
Codes geknackt und letztlich hat die Software-Industrie verstanden, dass die Leute keinen Kopierschutz
wollen. Die Industrie hat das akzeptiert, denn trotz der Software-Piraterie verkauften sich die Programme
sehr gut. Würde heute so etwas passieren, würde der Verkäufer von solchen Codes angeklagt. Das ist aber
schlecht für den Wettbewerb und die technische Entwicklung.
politik-digital: Was ist ihr Ratschlag an die deutschen Gesetzgeber?
John Perry Barlow: Der deutsche Gesetzgeber sollte sich fragen, ob der wirtschaftliche Schaden so groß ist,
dass es sich lohnt, solche riskanten Langzeit-Effekte in Kauf zu nehmen. Ich glaube nicht, dass eine
Demokratie funktioniert, wenn eine kleine Interessengruppe alle Informationen besitzt. Wie Mussolini sagte:
„Faschismus sollte Korporatismus heißen, weil es die effektive Vermischung von Kapitalgesellschaft und
Staat ist.“
politik-digital: In Deutschland konzentriert sich die Diskussion auf das Thema „Privatkopie“. Trifft es die
privaten Nutzer am Stärksten?
John Perry Barlow: Wir wollen digitale Informationen effektiv nutzen und
wir müssen in der Lage sein, uns zwischen verschiedenen Umgebungen zu bewegen. Wie viele Computer
haben Sie gehabt? Nach 18 Monaten ist ein Computer veraltet. Wenn nur eine Kopie erlaubt ist, muss man
sich beim nächsten Computer alles neu kaufen. Das ist eine sehr große wirtschaftliche Belastung für alle
Computernutzer zugunsten einer kleinen Anzahl Herstellern.
Außerdem ist das Teilen und Tauschen für Menschen die natürlichste Sache der Welt. Das ist fundamental
für menschliches Verhalten, den wir bereichern den Geist, indem wir kreative Arbeit teilen. Nur so blüht
Kreativität. Ich meine, es gibt viele Gründe dafür, dieses Gesetz zu verhindern.
politik-digital: Gab es Fälle in den USA, in denen User, die eine Privatkopie gemacht haben, vor Gericht
gestellt wurden?
John Perry Barlow: Bis jetzt noch nicht. Bisher wurde der DMCA auf CDs und Software mit Kopierschutz
angewandt. Die Musik und Bücher waren lange nicht kopiergeschützt. Das hat erst jetzt angefangen und so
langsam bekommen die Menschen den wahren Druck des DMCA zu spüren. Anfangs konnte der
Kopierschutz konnte mit einem einfachen Filzstift umgangen werden.
politik-digital: Aber ist das nicht die Lösung: Kopierschutz kann größtenteils technisch umgangen werden,
indem man den Kopierschutz mir Software oder einem Extra-Chip umgeht? Man kann doch schon jetzt
Mikrochips kaufen und damit seine Playstation modifizieren und kopierte Spiele und DVDs abspielen. Wäre
das die richtige Antwort auf ein falsches Gesetz?
John Perry Barlow: Ich halte es für eine sehr schlechte Idee, Gesetze zu verabschieden, die dann von der
Gesellschaft ignoriert werden. Daraus ergibt sich nur eine generelle Ablehnung des Rechtssystems. Und
meiner Meinung nach hat die Gesellschaft schon gezeigt was sie von Kopierschutz hält.
politik-digital: Und die technische Lösung, die wir gerade angesprochen haben, bevorzugt diejenigen, die
wissen, wo man solche Chips und Cracks bekommt.
John Perry Barlow: Das Gesetz benachteiligt die Alten und technisch Ahnungslosen und begünstigt die
Jungen und technisch Bewanderten. Das sieht nicht aus wie eine gerechte Sache.
politik-digital: Es kommt zu einer neuen digitalen Spaltung...
John Perry Barlow: Ja, eine neue digitale Spaltung, die bisher größte Spaltung zwischen jung und alt, die
ich kenne. Ich würde es sogar noch drastischer ausdrücken. Wir sollten uns nicht in der Hoffnung
zurücklehnen, dass Anarchie wird das Problem schon lösen wird. Ich glaube nicht, dass Anarchie eine gute
Lösung für irgend etwas ist.
politik-digital: Muss die Antwort auf technische Beschränkung nicht eine technische Antwort sein?
John Perry Barlow: Das wäre der Idealfall. Doch hier liegt das Problem von DMCA und EUCD. Gesetz und
Technologie entfalten gemeinsam eine ungeheure Macht.
politik-digital: Denken Sie an Lawrence Lessig’s „Code-is-law“, wo das Medium „Recht“ neben Infrastruktur
und Marktkräften nur eines Regulierungsmitteln ist. Spielt „Recht“ wirklich noch eine so wichtige Rolle?
John Perry Barlow: Als Larry diese Zeile geschrieben hat, war ich anderer Meinung, weil ich viel
misstrauischer gegenüber Regierungen und Gesetzen bin als er. Aber ich war bereit zu glauben, dass wir
das Medium „Recht“ brauchen, um das übereifrige Verhalten der Protektionisten zu korrigieren. Allerdings
wurde „Recht“ dann zum Verbündeten der Protektionisten. Larrys Vorschlag wollte den technischen Zwang
auflösen, hat ihn am Ende aber vergrößert. Es tut mir Leid, dass die Dinge mit Unterstützung des Rechts
schlimmer geworden sind.
Auch in Deutschland wird sich die Lage mit diesem Gesetz verschlechtern. Aber es ist furchtbar schwierig,
öffentliche Aufmerksamkeit für dieses Thema zu bekommen. Wenn du in einem Gespräch, das sich bis dato
mit Fußball beschäftigt hat, anfängst über digitale Reche zu sprechen, wirst du kein beliebter Kerl.
politik-digital: War die EFF in der Global Internet Liberty Campaign (GILC)?
John Perry Barlow: Ja und sie ist es immer noch. Aber auch für eine Organisation wie die UN, die viel Geld
von den Nationalstaaten bekommt, ist es schwierig eine globale Kampagne zu führen. Die einzigen globalen
Kampagnen, die funktionieren, sind die von McDonalds und Nike.
politik-digital: Setzen Sie Hoffnungen in die World Summit of Information Society (WSIS)?
John Perry Barlow: Nein, nicht wirklich. Ich kann mich irren, aber es sieht eher so aus, als ob das Ganze
von den üblichen Verdächtigen auf die Beine gestellt worden ist. Das ist eine Veranstaltung der
Medienunternehmen.
politik-digital: Und der Gipfel findet in der International Telecommunications Union (ITU) statt und das ist
Big Business...
John Perry Barlow: Ja, die PTTs (Post, Telegrafen- und Telekomunikationsunternehmen, Anm. d. R.) sind
dabei, und die sind einer Meinung mit den Medienunternehmen. Es gibt natürlich Ausnahmen, aber für
gewöhnlich sind ihre Interessen die selben.
Das aggressive Verhalten der Medienriesen stimmt mich aber auch optimistisch. Es erinnert mich an die
letzten Tage des Kommunismus. Ich glaube, sie wissen, dass mehr und mehr Druck und Zwang nicht mehr
funktionieren wird. Der Wind hat sich gedreht.
politik-digital: Der Plattenindustrie schwimmen also die Felle weg und deshalb klammern sie sich an den
DMCA?
John Perry Barlow: Ihr Wirtschaftsmodell passt nicht mehr in die Umgebung, in der sie operieren. Die
Vorstellung, eine Wirtschaft mit immateriellen Produkten, immateriellen Dienstleistungen könnte nicht
gedeihen, ist lächerlich. Sie wird gedeihen! Mit welchem Wirtschaftssystem, das muss sich noch zeigen.
Aber deswegen einfach am alten System festzuhalten ist dumm.
politik-digital: Ihre Einschätzung lässt ein bisschen Hoffnung: Auch wenn Gesetze wie der DMCA
verabschiedet werden, ist noch nicht alles platt gewalzt, denn in ein paar Jahren kann alles wieder ganz
anders aussehen.
John Perry Barlow: Dennoch sollten wir nicht die Zeit damit verschwenden, Fehler zu machen, die wir
später korrigieren müssen, denn so kann dauerhafter Schaden entstehen.
Wenn erst einmal die Architektur des Internet im Sinne von DRM grundlegend geändert ist, ergibt das einen
ausgezeichneten Überwachungs- und Kontrollmechanismus für Redefreiheit. Das bleibt für immer. Die
Platten- und Filmindustrie kann ihr Geschäftsmodell vollständig ändern, aber wenn wir das Internet einmal in
diesem Sinne umstrukturiert haben, dann kann man das nicht mehr rückgängig machen. Das ist die eine
Sache.
Die andere Sache ist, dass die Medienkonzerne einen großen Teil unserer Geschichte löschen werden.
Werke der letzten hundertfünfzig Jahre, die nicht mehr unter Copyright stehen, werden niemals digitalisiert
werden. Wir werden einen großen Teil des menschlichen Wissens verlieren.
politik-digital: Mr. Barlow, vielen Dank für dieses Interview.
Das Interview führte: Dr. Harald Neymanns
Übersetzt von: Jens Mau
Der Titel wurde – als Content ohne Container – gestiftet von: Jan Engelmann, Journalistenbüro Acker 10,
Berlin
Freitag, 18. September 2020
J. S. Bach Präludium BWV 1007
Johann Sebastian Bachs Präludium BWV 1007, hier in D-Dur - gesetzt in MuseScore.

PraeludiumBWV1007.pdf

PraeludiumBWV1007.pdf
(Seite 1 von 2, insgesamt 21 Einträge)
nächste Seite »