BACH MusicDNA
Der Ausdruck MusicDNA bezeichnet einzelne Merkmale eines Musiktitels, die mit Hilfe einer speziellen Analysetechnologie in einem komplexen automatisierten Prozess aus einem Song herausgefiltert werden. Die MusicDNA ist nicht wie die übliche MP3-Recherche auf wenige Suchkriterien beschränkt, sondern lässt sich in dreizehn verschiedene Informationen aufgliedern wie Titel, Interpret, Genre, Tempo, Stimmung bis zur Auswahl der Instrumente. So ermöglicht die MusicDNA dem Nutzer intuitiv und gezielt, je nach Interessen oder momentaner Stimmung, nach Musik zu suchen und sich auch Titel von ihm bisher unbekannten Künstlern vorschlagen zu lassen, die seinem persönlichen Geschmack entsprechen.
Hintergrund
Musiksuchmaschinen bieten zwar Zugang zu Millionen von Musiktiteln an, doch häufig können Nutzer von dem Angebot nicht in vollem Umfang Gebrauch machen, da sie nicht über das erforderliche genaue Wissen zu Interpreten und/oder Musiktiteln verfügen. Kennt der User Musiktitel oder Interpret nicht, ist eine genauere Musiksuche schwierig. Folglich liefert ihm das Ergebnis seiner Musiksuche nur einen begrenzten Ausschnitt von Titeln und Künstlern. Vielfach handelt es sich dabei um bereits bekannte und erfolgreiche Künstler. Neue oder bisher unbeachtete Musik sind oft nicht Teil des Suchergebnisses („Long Tail“-Effekt).
Anwendung
Auf Online-Musikportalen kann die MusicDNA durch den User zur Musikrecherche angewendet werden. Auch offline können sich User zum Beispiel auf dem Computer oder MP3-Player durch die verschiedenen Suchkriterien Musik-Playlisten zusammenstellen lassen.
Die MusicDNA gestaltet den Zugang zu Musikkatalogen sehr benutzerfreundlich. User finden Musik einfach und ohne genaue Musikkenntnisse.
Mögliche Suchkriterien mit Hilfe der MusicDNA sind folgende:
Ähnliche Musik: Traditionell erfolgt die Musiksuche über die Eingabe des Künstlernamens oder den Namen des Musikstückes. Sobald der User eine dieser Informationen eingibt, empfiehlt ihm das Programm automatisch Künstler oder Musiktitel, die seinem Musikgeschmack entsprechen. Dabei kann es sich sowohl um populäre, als auch unbekannte oder neue Musik handeln.
Stimmungen: Die MusicDNA erlaubt die Suche und das Generieren von Musiklisten anhand von Stimmungen des Benutzers. Je nach Laune (fröhlich, entspannt, aggressiv, melancholisch, etc.) werden entsprechende Musiktitel gesucht.
Musik-Attribute: Die Musiksuche erfolgt anhand von beschreibenden Musik-Attributen wie Schnelligkeit, Energiegehalt, Farbe, Musik-Genre etc. Musik-Segmente: Gesucht wird nach bestimmten musikalischen Segmenten, die innerhalb eines Musiktitels zu finden sind (zum Beispiel Saxophon- oder Gitarren-Solo).
Die MusicDNA verwendet neben Audio Fingerprints (deutsch: Akustische Fingerabdrücke), die zu jedem Musikstück eine mathematische Beschreibung und damit Ähnlichkeitsberechnungen erzeugen, auch Beschreibungen in menschlicher Hochsprache. Eine Suchanfrage könnte daher lauten: „Finde Stücke die klingen wie Like a Virgin von Madonna, aber mit weniger Schlagzeug und positiverer Stimmung“. Diese sehr exakte Vergleichs- und Suchmöglichkeit erlaubt ebenfalls eine automatische an Stimmung und Situation angepasste Generierung von Abspiellisten. Persönliche Wiedergabelisten oder Listen nach reinem Zufallsprinzip müssen somit nicht mehr selbst von Hand eingestellt werden.
Technologie
Die MusicDNA analysiert:
Physikalische Eigenschaften – Low Level Annotation: Die Musikeigenschaften werden mit Methoden der digitalen Signalverarbeitung analysiert und auf Signalebene für kurze aufeinander folgende Zeitfenster innerhalb des Stückes beschrieben. Diese Beschreibungen sind für Menschen schwer erfassbar. Es handelt sich um mathematische Reihen, die zum Beispiel die Rauschartigkeit der Musik oder auch die Wellenform des Signals für verschiedene Frequenzbänder beschreiben. Die Low Level Annotation dient zur Erstellung von Audio-Fingerprints für Ähnlichkeitsberechnungen zwischen Musikstücken und als Berechnungsgrundlage für High Level Annotationen.
Beschreibung in für Menschen begreifbare Termini – High Level Annotation: Basierend auf den Ergebnissen von Schritt Eins (Low LevelAnnotation??) werden musikalische Eigenschaften wie zum Beispiel Tempo, Detektion von Sprache oder Gesang und auch die automatische Unterteilung in Vers, Strophe und Solo berechnet.
Auf Maschinenlernen basierende Beschreibungen: Bestimmte Eigenschaften, die wir Musik zu schreiben, sind subjektiv und nicht direkt mathematisch erfassbar. Beispiele dafür sind Stimmung, Genre oder Aggressivität. Um diese Eigenschaften trotzdem zu beschreiben, werden Methoden der künstlichen Intelligenz verwendet und ein maschineller Experte erstellt. Dieser Experte lernt anhand von vorgegebenen Trainingsstücken, Musik verschiedener Richtungen voneinander zu unterscheiden und neue Stücke den bekannten Klassen zuzuordnen.
Semantische Gewichtungen: Ein letzter Schritt dient der Verfeinerung der vorangegangenen Beschreibungen, um Besonderheiten von Musikrichtungen und Stilen zu behandeln. Ein Beispiel dafür ist die Bestimmung der subjektiven Geschwindigkeit abhängig vom Genre. Ein schnelles Klassik-Stück ist unter Umständen musikalisch noch immer langsamer als ein langsames Techno-Stück.
Weblinks
Init-Quelle
Entnommen aus der:
Erster Autor: Ziegfeld2009 , Alle Autoren: Sarion, Nephiliskos, Ziegfeld2009
Hast du einen Löschwunsch oder ein anderes Anliegen? Dann nutze bitte unser Kontaktformular
PlusPedia Impressum
Bitte Beachte:
Sämtliche Aussagen auf dieser Seite sind ohne Gewähr.
Für die Richtigkeit der Aussagen übernimmt die Betreiberin keine Verantwortung.
Nach Kenntnissnahme von Fehlern und Rechtsverstößens ist die Betreiberin selbstverständlich bereit,
diese zu beheben.
Verantwortlich für jede einzelne Aussage ist der jeweilige Erstautor dieser Aussage.
Mit dem Ergänzen und Weiterschreiben eines Artikels durch einen anderen Autor
werden die vorhergehenden Aussagen und Inhalte nicht zu eigenen.
Die Weiternutzung und Glaubhaftigkeit der Inhalte ist selbst gegenzurecherchieren.