Meinung / Feedback erbeten.

Hi,

ich bastle nach langer Zeit mal wieder an soundreaktiven LED Animationen.
Das Grundproblem dabei ist immer, die richtige Balance zu finden zwischen subtilem Einfluss der Analyzerdaten auf die Animation ("Reagiert das denn wirklich auf die Musik?") und zuviel Einfluss ("Das Geflacker ist zu krass!").

Bitte mal das hier anschauen und mitteilen, wie das auf Euch wirkt.

Bitte ehrlich und unverblümt, es dankt im Voraus

Helmuth

Ich: Langweilig, keine Abwechslung (mag auch an der Musik liegen).
Meine Frau: Da ist mir zu viel Pink, das strengt mit der Zeit die Augen an.

Du willst es so :slight_smile:

Hallo,
das wirkt wie alle bumm-bumm-bumm LED-Animationen.
Das Problem ist, das ihr Krach auswertet und keine Frequenzen in einem bestimmten Bereich.
Schlag mal an einer Gitarre das A an und lasse es ausklingen.
Dann versuche mal eine LED danach zu steuern.
Nun das H anschlagen, wieder eine zweite LED danach steuern.
Jetzt beide anschlagen, dann siehst Du was ich meine. So ein Ton ist nicht einfach da- pöff.
Der baut sich ab und auch wieder auf. Ihr steigt aber bei einem Schwellwert ein, und bei einem anderen aus.
Das ist nichts weiter als Licht an, Licht aus. Das funktioniert auch mit dem Lichtschalter im Keller und
benötigt keinen Arduino.
Schaue Dir einmal Schaltpläne von alten 4-Kanal Lichtorgel an. Der Aufwand ist beträchlich.
Das bekommst Du nicht mal eben so in ein IC gestopft.
Gruß und Spaß
Andreas

Alles gut, weitermachen!

@Andreas: Ich habe 7 relativ schmalbandige Filter und werte diese 7 Frequenzbänder aus. Das eigentliche Problem ist, wie man die momentanen Intensitäten der Bänder mit Ereignissen / Parameteränderungen verknüpft. Ich habe auch schon mit FFT mit 256 Bändern rumgespielt - das macht es nicht wirklich leichter - es ist dann zu spezifisch, um mit verschiedenem Musikmaterial zu funktionieren.

@Kulturbereicherer: Schau mal hier, ich habe (geringfügig) die Gewichtung der Frequenzbänder verändert, konkret weg von den unteren beiden Bändern (weil bei dieser Musik im Tieftonbereich nicht viel passiert) mehr zu den mittleren Bändern hin.

Über die Farben kann man gewiss noch streiten - ich nehme zum Entwickeln gern einfarbige Layer (in diesem Fall rot und blau), damit man noch durchsieht, welche Änderung welchen Effekt hat. Wenn dann alles passt, wird das durch eine schöne Palette ersetzt bzw. auch die Farben vom Frequenzspektrum moduliert.

Gemäß Kulturbereicheres Wunsch hier die Visualisierung von echter Musik ohne BumBum.

Beste Grüße,

Helmuth

Hallo,
mir hat der Inhaber des Video den Zugiff verwährt.
Gruß und Spaß
Andreas

Oh, sorry, habe die Einstellung von "privat" auf "nicht gelistet" geändert. Sollte jetzt funktionieren.

Gruß, H.

Hallo,
vielleicht bin ich zu alt dafür...
Wie in der TanzSchule, alle tanzen nach der Musik- aber keiner im Takt.
Für diese Art von "LichtInstallation" gibt es doch einen "fachlichen" Terminus? Wie lautet denn der?
Ich muss mal lesen, was das überhaupt soll- mal versuchen den Sinn zu finden.
Gruß und Spaß
Andreas

hi,

mein grundsätzliches problem damit: ich kann die verzögerung sehen. keine ahnung, ob das jedem so geht, aber dadurch passen ton und licht halt nicht zusammen. bei rein elektronischen lichtorgeln früher in der disko gab es keine verzögerung, dazu konnte man tanzen, aber wie soll das gehen, wenn das licht dem ton eine , sagen wir mal, zwanzigstel sekunde hinterherhinkt?

Meine Frau: Da ist mir zu viel Pink, das strengt mit der Zeit die Augen an.

Du willst es so

naja, ich würde eher sagen: DU wolltest es so! helmuth hat sie ja schließlich nicht geheiratet.

gruß stefan

Also, Eisebär, es liegt in der Natur der Sache, dass der Analyzer mindestens 2 Halbwellen einer Frequenz braucht, um das Signal zu detektieren. Bei 50 Hz wären das in der Tat 20 ms.

Ich weiß genau, was Du meinst, dass Licht und Ton absolut synchron (oder zumindest die zeitliche Differenz unterhalb der Wahrnehmungsschwelle) sein muss, damit es ernsthaft rockt. Ich habe Wochen und Monate meines Lebens damit verbracht, da wirklich das Letzte Quentchen Speed rauszuholen, was irgendwie ging.

Ich sag mal ganz unbescheiden, ich kenne keine µC Umsetzung, die schneller ist, als meine. Über computergestützte Analyse brauchen wir gar nicht erst reden, allerdings gebe ich zu bedenken, dass auch eine klassische Glühwendel ein paar ms braucht, bis sie den Stromfluss in Licht umsetzt. Ein FPGA wäre vermutlich noch schneller, sonst fällt mir nichts ein.

Will sagen, ich bin der Meinung, dass das Video (Kamera? Codec? Youtube?) hier ein Delay verursacht, welches real nicht wahrnehmbar ist. Die Animation läuft mit ca. 300 fps. Dass der MSGEQ7 nach einer Vollwelle anschlägt (Verzögerung ist dann noch im µS Bereich, also für die menschliche Wahrnehmung irrelevant), habe ich vor längerer Zeit mal mit einem Oszi gemessen. Also ein Sinussignal angelegt und mit dem Controller einen Pin getoggelt, wenn das Band reagiert hat. Verzögerung ziemlich exakt eine Vollwelle.

Bleibt das Delay im Tieftonbereich. Unterstes Band hat 63 Hz Centerfrequenz. 16 ms Periodendauer. Schall benötigt (Faustformel) 3 ms / m. D.h. bereits bei 5 m Abstand zum Lautsprecher ist die Latenz nur noch 1 ms. Bei höheren Frequenzen reagiert der Analyzer und die LEDs, bevor bei dieser Entfernung der Sound am Ohr ist. 300 fps = maximal 3,3 ms "Bedenkzeit" des Controllers. Das liegt unterhalb der Wahrnehmungsschwelle.

Was ich sagen will: Ich kann den Einwand absolut nachvollziehen und sehe/höre den Versatz auch in dem Video, versichere aber, dass das live nichtexistent ist. Tester sind jederzeit persönlich willkommen.

Davon unabhängig danke ich für alle ehrlichen Meinungen (und bin neugierig auf weitere). Meine Frau findet die Farben übrigens auch schei*e, das macht sie aggressiv, meint sie...

Ich neige etwas zu Betriebsblindheit und freue mich deshalb über Feedback von Leuten, die da mehr Distanz als ich selbst haben.

Liebe Grüße,

Helmuth

Eisebaer:
naja, ich würde eher sagen: DU wolltest es so! helmuth hat sie ja schließlich nicht geheiratet.

Und ich will es immer noch! Während sie mir über den Nacken strich, haben wir uns das Video gemeinsam angesehen.

Meine Bemerkung bezog sich mehr darauf, er wolle eine ehrliche Meinung lesen. Das tut mir dann schon etwas weh, da ich vermute, der Aufwand ist nicht unerheblich. Da würde ich dann doch lieber lobende Worte finden wollen.

Hallo,
vielleicht kannst Du damit noch schneller werden.
Gruß und Spaß
Andreas

Ich sag mal ganz unbescheiden, ich kenne keine µC Umsetzung, die schneller ist, als meine. Über computergestützte Analyse brauchen wir gar nicht erst reden, allerdings gebe ich zu bedenken, dass auch eine klassische Glühwendel ein paar ms braucht, bis sie den Stromfluss in Licht umsetzt. Ein FPGA wäre vermutlich noch schneller, sonst fällt mir nichts ein.

Als ehemaliger Hersteller von Beleuchtungseinrichtungen, für Tanzlokale, ist mir klar, was du meinst.

Die Abhilfe: Eimerkettenspeicher (oder ihre modernere Entsprechung)

Geht für Konserven. Live, natürlich nicht.

Das tut mir dann schon etwas weh, da ich vermute, der Aufwand ist nicht unerheblich.

Ich profitiere ja davon, dass ich das schon ein paar Jahre lang mache, 75 % des Codes konnte ich aus alten Projekten recyclen. Ich bin wirklich nicht empfindlich bei kritischem Feedback - so lernt man etwas neues.

Da würde ich dann doch lieber lobende Worte finden wollen.

Bitte nur, wenn es auch die Wahrheit ist... und ich mal vernünftige Videos hinbekomme...

vielleicht kannst Du damit noch schneller werden.

Ich bin auf einem Teensy unterwegs und nehme die FastPIN Lib zum schreiben und die ADC Lib zum lesen. Schneller geht nicht. Flaschenhals sind die LEDs und selbst die füttere ich schon mit 24 MHz Hardware SPI...

Mit der Geschwindigkeit bin ich ganz zufrieden. Die Qualität der Analyzerdaten könnte besser sein. Da ist noch zuviel Rauschen drin.

Als ehemaliger Hersteller von Beleuchtungseinrichtungen, für Tanzlokale, ist mir klar, was du meinst.

In meinem letzten Leben als Light Jockey habe ich die DMX Pulte mit einem Drumcomputer getriggert und hatte immer eine Lampe als Referenzlicht. Dann habe ich nach dem synchronisieren der Geschwindigkeit den Beat "nach hinten geschoben", bis die Lampe absolut sauber im Takt geblinkt hat. Bei den automatischen "Sound2Light" Modi konnte man ja froh sein, wenn das Licht wenigstens den Offbeat getroffen hat...

Helmuth:
In meinem letzten Leben als Light Jockey habe ich die DMX Pulte mit einem Drumcomputer getriggert und hatte immer eine Lampe als Referenzlicht. Dann habe ich nach dem synchronisieren der Geschwindigkeit den Beat "nach hinten geschoben", bis die Lampe absolut sauber im Takt geblinkt hat. Bei den automatischen "Sound2Light" Modi konnte man ja froh sein, wenn das Licht wenigstens den Offbeat getroffen hat...

Ich glaube, du hast mich nicht verstanden....
Macht aber auch nix.

Ich "könnte" dir ein Felston DD540 aus alten Lagerbeständen zukommen lassen, gegen einen angemessenen Ausgleich.
Damit "könntest" du dir die notwendige Zeit für deine Berechnungen "erwirtschaften".

Bei mir kam an, dass Du vorschlägst, ein Audio Delay / Eimerkettenspeicher zu benutzen, um das Audiosignal um einen Beat minus die Latenz des Gesamtsystems nach hinten zu schieben, um zu absolut synchronen Lichteffekten zu kommen.

Bzw. das Audiosignal am Mischpult abzugreifen und um die Latenz des Analysvorgangs zu verzögern, bevor es an die PA geht.

Habe ich das falsch verstanden?

Bzw. das Audiosignal am Mischpult abzugreifen und um die Latenz des Analysvorgangs zu verzögern, bevor es an die PA geht.

Genau so.

Hier mal etwas ohne Soundreaktivität.

Eine Noise Field, welches komplett (!) durch sich selbst moduliert wird.

Keine externen Steuerungsparameter, nicht mal millis().

Ziemlich lebendig und immer wieder überraschend. :slight_smile:
Manchmal bleibt es kurz stehen und atmet, denkt nach, morpht dann wieder schnell...

Wer mit elektronischer Musik nichts anfangen kann, klickt bitte einfach auf "Mute", der Sound ist für die Animation unerheblich.

Genug der Vorrede, hier ist das Video.

Beste Grüße,

Helmuth

Sieht gut aus.

Gruß Tommy

Das hat was!

Na das ist doch fein, dass @agume doch noch Lob loswerden konnte. :wink:

Hier der komplette Code, falls das jemand mal selbst ausprobieren möchte. Ich habe es momentan nur auf einer 16x16 Matrix getestet, aber eigentlich sollte das mit jeder Größe funktionieren. Rückmeldung erwünscht.

Grüße,

Helmuth