Jump to content

·        Welche ist die ideale Blöckgröße für die Datenverarbeitung?

Faustformel: Ein Verhältnis von Abtastrate zu Blockgröße von 10:1.

Eine geringer werdende Blockgröße steigert zwar die "Reaktivität" des Schaltbilds, also Daten werden öfter von einem Modul an nachfolgende weitergegeben, allerdings erhöht sich auch der Aufwand, da öfter pro Sekunde nur wenige Daten "auf einmal" verarbeitet werden können.

Bei hoher Abtastrate (viel Messwerte pro Sekunde) und geringer Blockgröße (viele Transporte weniger Messwerte) kann es passieren, dass für die Berechungen in den Modulen nicht genug Zeit übrig bleibt, da DASYLab (und der PC) hauptsächlich mit dem Transport der Daten beschäftigt ist.

Wenn sich ein Schaltbild beispielsweise aus 100 Modulen zusammensetzt und Sie eine Abtastrate von 1000 Hz und eine Blockgröße von 1 eingestellt haben (1/1000 = 0,001s) , muss DASYLab innerhalb von 1 Millisekunde 100 Module bearbeiten. Das sind 10 Mikrosekunden, die jedem Modul verbleiben, um seine Daten zu verarbeiten.
Bei äufwändigen Berechnungen, die länger als 10 Mikrosekunden dauern, werden die Daten sich vor dem betreffenden Modul "stauen", da die Daten schneller ankommen, als sie verarbeitet werden können.

Collections
×
×
  • Create New...