LS007 Auphonic

Ein webbasiertes System zum automatischen Bearbeiten von Podcasts Auphonic ist ein neuer Dienst, der nicht weniger als anspruchsvolle Podcast Post-Production verspricht und jetzt in seine öffentliche Betaphase tritt. Auphonic führt auf Rohaufnahmen eine umfangreiche automatische Audiobearbeitung durch, überführt die Aufnahme in ein oder mehrere Medienformate und sorgt auch für eine universelle und umfangreiche Beglückung mit Metadaten in diesen Dateien. Das Endergebnis wird dann automatisch auf den eigenen Server hochgeladen.

Anlässlich des Podlove Developer Meetings, das am letzten Wochenende in Berlin stattfand, war Georg Holzmann - Initiator und einer der Entwickler von Auphonic - zu Gast in der Metaebene und stellt sein Projekt im Detail vor.
Dauer: 01:34:58
avatar Tim Pritlove Bitcoin Amazon Wishlist
avatar Georg Holzmann
Auphonic

Themen: Podlove Developer Meeting; Auphonic Überblick; Toningenieur Studium in Graz; Music Information Retrieval, Machine Learning; Schritte in der Audio Post Produktion; Levelator; Audio Plugins; Intelligente Lautheitsanpassung mit Audioanalyse; Tims Erfahrungen mit Auphonic; Lautheitswahrnehmung; Quasi Peak Programme Meter (QPPM); ITU-R BS.1770 Algorithmus zur Lautheitsmessung; EBU R 128; Calm Act; Einheit zur Lautheitsmessung: Loudness Units (LU, LUFS); Inter Sample Peaks; Loudness War; Audio Restauration: Noise Reduction, Brummfilter, Clipping Entfernung; Audio Encoding (MP3, Ogg Vorbis, AAC/MP4, Flac); Metadaten und Kapitelmarken; Bitratenbereiche für verschiedene Audio Formate; HE AAC, HE AACv2; Übersicht zu AAC/MP4 Enkoder; LAME MP3 Enkoder; Variable Bitrate, Konstante Bitrate; Bitraten Empfehlungen und Erfahrungen; Liste mit Hörversuche zu Formate und Bitraten; Xiph.org OggEnc Enkoder, aoTuV Enkoder; Verlustfreie Datenkompression: FLAC, ALAC; ID3 Tags; ID3 Tags Vergleich bei Podcasts; Vorbis Comments; iTunes-Style Metadata; mp4v2; AtomicParsley; ID3v2 Chapter Extension; Vorbis Comment Chapter Extension; VLC media player; Opus Codec; CELT Codec von Xiph.org; SILK Codec von Skype; Sprachkodierung; Speex Codec; Mumble Audiochat; Integration mit anderen Webservices; Auphonic API; Auphonic Registrierlink; Freemium Modell; Open Source Strategie von Auphonic; Neues Austauschformat für Podcasts; Auphonic Blog; Podlove Projekt.

47 Gedanken zu “LS007 Auphonic

  1. Hallo Tim, habe gehört Du suchst eine Podcast-Hardware-Lösung mit bestimmten Anforderungen. Kannst Du eine Feature-Liste erstellen und mir zusenden? Ich möchte mir das ankucken, ob wir sowas bauen können.

    Mit freundlichen Grüssen

    Andrew Domarkas

      • Hi Dirk, im Moment existiert noch nix. Ich muss erstmal sehen, ob wir die Anforderungen in angemessener Zeit hinkriegen. Dazu brauche ich eine Liste über das, was von Euch gewünscht wird.

        Greetings

        Andrew

        • Hat jemand Ideen bezüglich der Ausführung der Aufnahme Hardware? Wie zum Beispiel bei einer mobilen Ausführung: Wieviel Eingänge braucht man? Wieviel Kopfhörer-Ausgänge?
          Per Funk oder drahtgebunden?
          Usw. Gebt mir eure Vorstellungen und Anforderungen.
          In freudiger Erwartung
          Andrew Domarkas

          andrew.domarkas@traxmicrosystems.de

  2. Pingback: lautsprecher: mach’s doch besser! | die Hörsuppe

  3. Auphonic ist magisch. Sowas von geil. Vielen Dank für die umfangreiche Hinterfragung des Projekts usw!
    Eine Frage ist mir beim ausprobieren von Auphonic gekommen: wie ist den dein (Tim) Workflow zum erstellen von Chapters?

  4. Interessant! Werde das definitiv ausprobieren.
    Es wurde gar nicht erwähnt, in welchem Format die Rohdaten überhaupt angeliefert werden sollen. Da Georg erwähnte, dass kein Mixing durchgeführt wird, nehme ich an, dass vorher ein Downmix auf Mono/Stereo stattfinden muss? Oder geht es auch, das von Tim genannte 15GB RAW Multitrack-File reinzuschmeißen?

    • Hallo jEN!

      Wir unterstützen alle möglichen Formate als Eingangsdatei (wav, aiff, flac, mp3, aac, vorbis, etc.).
      Multitrack wird im Moment noch nicht unterstützt, d.h. du solltest einen Stereo Mix (oder mono) haben und diese dann weiterreichen. Multitrack ist aber natürlich geplant, wird aber noch ein bisschen dauern … ;)

      LG
      Georg

  5. und genau wegen diesem ganzen Lizenzspaß (“darf ich das jetzt hier verteilen”, “gibt es opensource-encoder?”) will man wann immer möglich auch alles in freien Formaten wie Vorbis anbieten. Nicht unbedingt weil das die meisten verwenden würden, sondern einfach um das Format weiter zu verbreiten. (dank Android, Chrome, VLC und co. sollte inzwischen die Verbreitung der Abspielsoftware auch einigermaßen gegeben sein… solange man nichts mit Apfel drauf hat, sollte es eigentlich überall tun)

  6. Folgendes ist sicher schon bekannt, aber nur mal meiner Bürgerpflicht wegen…

    FireFox: Der Player mag mal wieder nicht und wirft ‘nen 404 Fehler @ ls007-auphonic.oga ( Wäre ja auch Quatsch von den BrowserEntwicklern im Fehlerfall einfach die zwei anderen eingebundenen DateiFormate laden zu lassen, gell… )

    Chrome: Scheint mit dem Codec vorne und hinten nicht klar zu kommen. Die m4a wird gefühlte 300% langsamer abgespielt. Und da meint man ein aktuelles System zu haben ^^

    IE 6 bis 9: Funktioniert problemlos XD

  7. Also wenn ich das jetzt richtig verstehe lade ich bei auphonic einfach mein wav-file hoch, was ich sonst in Levelator werfen würde?
    Das sind aber auch gerne mal 600MB und mehr.

    • Wenn du auf einer nicht-qualitätsreduzierten Version arbeiten lassen willst, kannst Du die Datei vor dem Upload mit FLAC auf bis zu 40% der Größe bringen.

      Alternativ kannst Du auch die Datei z.B. in 256kbit/s MP3 oder MP4 (oder was auch immer) umrechnen. Da bleibt bei Sprache genug Qualität über.

    • Im podcasting workflow musst du sowieso irgendwo uploaden – deshalb ist die Idee, dass du das gleich am Anfang machst und wir laden dann die Ergebnisse gleich auf deinen Server wo du die Files hostest.
      D.h. wenn du mehrere Zielformate unterstützen willst, sparst du dir im Idealfall sogar Zeit beim Hochladen …

  8. Hallo Tim,
    hattest du nicht mal vor deine Erfahrungen mit Podcasts auch aufzuschreiben? In den Lautsprecher Folgen wird ja (teilweise auch mit mehr oder weniger großen Überschneidungen) alles erklärt, aber nur durch’s Hören einen guten Überblick zu bekommen ist etwas schwierig…
    Wäre das auch was für dein podlove Projekt oder ist das nur als Plattform für Softwareentwicklung gedacht?

    • Tja, ich könnte mir da eine Menge vorstellen und die Plattform ist da letztendlich egal. Aber die Schreiberei frisst einfach zu viel Zeit. Derzeit haben neue Sendungen und die Betreuung der Softwareprojekte Vorrang. Letzteres vor allem, um künftig Zeit einzusparen bei allem.

  9. Schade, aber ist absolut nachvollziehbar.

    Willst du eigentlich noch mehr Formate außer Ogg anbieten? Eigentlich wäre das ja schon mehr als genug…

  10. Pingback: Noch mehr Audio-Podcasts, die du hören solltest | Webanhalter

  11. Tolles Projekt.

    Auch wenn die “Audio-Magic” die ihr da macht von euch wohl als das Kernfeature gesehen wird fänd ich ja eine Option gut diese Nachbearbeitung wegzulassen und nur das Dateimanagement und den Upload zu machen.

    Ich mache eher so Hörspielartiges Zeug und da ist der Endmix genau das was ich haben will, da möchte ich hinterher keinerlei Bearbeitung des Signals mehr. Aber allein für das setzen der Metatags und das Ausgeben unterschiedlicher Dateiformate würde ich euern Service gern nutzen.

  12. Pingback: Auphonic ... | Dirks Logbuch

  13. Wird man eigentlich auch einstellen können, was jetzt genau an der Audio Datei bearbeitet wird und welche Teile eures Algorithmus mit welchen Parametern benutzt werden?

    Ich habe euren Dienst mal mit einer schlechten Aufnahme (älterer mp3 Player) ausprobiert, die ein hochfrequentes Pfeifen enthält, das wurde nicht rausgefiltert. Welche störenden Frequenzen oder Frequenzbereiche filtert ihr im Moment? Die Lautheit/stärkeanpassung scheint dagegen zu funktionieren, leise Teile wurden etwas angehoben, zu laute Stellen begrenzt. Allerdings vollbringt das natürlich keine Wunder…

    Ist die “Spracherkennung”, von der die Rede war, im Moment schon aktiv?

    • Ja wir werden sicher ein “Experteninterface” machen, wo man dann mehr einstellen kann zu den Algorithmen … jedoch ist der Ansatz doch eher, dass wir das versuchen zu automatisieren und so wenig wie möglich Einstellungen haben.

      Zu den Störfrequenzen:
      im Moment filtern wir nur tiefe Störfrequenzen (d.h. ein Low-Cut bei Sprache, bei Musik ist der ein bisschen höher, weil es da tiefere Frequenzen geben kann …)
      Wir sind gerade am Arbeiten an der Entfernung und Bestimmung von periodischen Störgeräuschen bzw. Noise Reduction, dann wird dein Beispiel funktionieren!

      Zur Lautheitsanpassung: dort erkennen wir (jetzt schon) wo Sprachsegmente bzw. Segmente mit reinen Nebengeräuschen sind – das braucht man um die Verstärkung richtig zu berechnen …

  14. Ich hätte noch mal eine andere Ansicht zum Thema wie man sich das mit der Lautstärke vorstellen kann.

    Wie schon erwähnt, ist Lautstärke eine relative Ansicht. Unser Ohr interpretiert Lautstärke bei unterschiedlichen Frequenzen anders. Wenn man jetzt einfach bei einer Audio-Sequenz alle Werte auf ihren maximalen Wert zieht (z.B. von -1 bis +1.0, weil wir ja eine Schwingung haben), dann wird nicht alles automatisch Lauter. Und zwar kann man das an sich selber ausprobieren, indem man sich Testtöne mit der selben maximalen Schwindung anhört.

    * 20 hz, ganz leises Brummen, wir empfinden das als leisen Bass, aber dieser ist immernoch sehr leise
    * 440 hz, sehr deutlich zu hören, das ist der Kammerton, der wird auch oft als Testsignal verwendet
    * 19000 hz, sehr leises Pfiepen

    Und das ist der Grund, wieso man nicht einfach alles hochziehen kann und dann erwartet, dass es gleich laut ist. Man muss sich also bestimmte Abschnitte der Frequenzen anschauen und diese getrennt lauter machen. Da gibt es dann eine Umrechnung mit der schnellen Fourier-Transformation. Da sind dann die Signale nicht mehr in dieser gewohnten Wellenform, sondern man sieht für Frequenzabschnitte genau, welche “Lautstärke” sie haben. Diese kann man dann anfassen und wieder zurück transformieren. Das ist viel Mathe und Voodoo (o:

    @Tim: Ich habe gerade meine Masterarbeit (Thema war u.a. digitale Audio-Signal-Verarbeit) fertig geschrieben und würde bei bedarf mich in eurer Podcast-Enhancement miteinbringen.

    • Hey Rainer!

      Danke für die ausführliche Darstellung – genau das hab ich versucht rüber zu bringen im Interview … ;)
      Was du hier beschreibst, versuchen die “Kurven gleicher Lautstärkepegel” (oder wie auch immer man dazu auf Deutsch sagt) abzubilden:
      http://de.wikipedia.org/wiki/Geh%C3%B6rrichtige_Lautst%C3%A4rke

      Falls dich das genauer interessiert, kannst du dir auch mal die Details zu EBU R 128 bzw. dem ITU-R BS.1770 Algorithmus (http://tech.ebu.ch/loudness) anschaun …

      Zu was hast du deine Master Arbeit genau geschrieben?

      Schönen Sonntag noch,
      LG
      Georg

      • Ich habe ein Audio-Editor mit JavaScript geschrieben der nativ in HTML5 mit neuen API (ohne Flash oder sonstiges) funktioniert. Ich muss noch ein wenig meinen Code aufräumen (Mein erstes Webprojekt, sonst bin ich eigentlich nur in C++ und so unterwegs) und dann werde ich das Ding auch publishen.

  15. Wie weit ist den der Workflow für Vortragsaufzeichnungen bei euch? Ich hab da bisher halt momentan immer noch sehr viel manuelle Arbeit. Am liebsten wäre mir ein Formular in das man die URL zu dem Pentabarf XML Dokument und den Pfad zu nem Order in dem die Mitschnitte liegen angeben kann und der Rest läuft automatisch.
    Ich wäre da auch durchaus bereit etwas mitzuhelfen, falls das möglich ist.

    • Hallo Andi!

      Danke für dein Angebot – auf das komm ich sicher nochmal gerne zurück ;)
      Im Moment gibt es noch nichts eigenes für Vorträge usw. Die nächsten Ziele sind bei uns mal Bugs fixen, API und die Noise Reduction Algorithmen – danach können wir uns da gerne mal genauer dazu unterhalten!

  16. Pingback: Ein AudioformatRant: Das Dilemma mit aac – ryuus Hort

  17. Pingback: Auphonic | Radio Gaarden

  18. Das ist wirklich eine durchdachte und tolle Lösung, die viel Zeit spart. Aktuell kämpfe ich noch mit der korrekten Übernahme der Millisekunden aus dem Chapter-File, aber der “Rest” des Workflows funktioniert schon echt am Schnürchen. Es tut sich was für Podcaster und als Neueinsteiger scheint das gerade eine spannende Zeit zu sein! Vielen Dank an alle Beteiligten und sagt bescheid, wenn man Euch irgendwie unterstützen kann!

  19. Sehr cool! War bisher skeptisch, ob ich sowas wie Auphonic brauche, aber nachdem ich gestern mit Holgi bei Wrint geschnackt habe, hab ich es dann doch mal ausprobiert. Allein ein Preset mit den Metadaten ist schon praktisch, aber einfach unbearbeitetes WAV hochwerfen und Auphonic macht den Rest inkl. übertragen in meinen Web Space, das ist echt super praktisch! Danke!

  20. Pingback: 15. Mai 2012: Podcast-Logbuch « Schichtstufen

  21. Ich habe auphonic bei meiner letzten Podcastfolge ( http://bit.ly/MAUj53 ) das erste Mal benutzt und ich finde, das Ergebnis ist sehr gut geworden. Deine Serie hier über Podcasting finde ich echt klasse, auch wenn du manchmal etwas zu sehr in die Tiefe gehst und dich in Details verlierst, die mich nicht so interessant finde.
    Was ich bis jetzt vermisse sind Tips über den Inhalt, wie man einen interessanten Inhalt gestalten kann. Ich habe das Gefühl, daß du etwas zu sehr Gewicht auf Technik legst, obwohl der Inhalt meines erachtens wichtiger ist.
    Beste Grüsse vom Bodensee,
    Michaela

Add Comment Register

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>