NEWS
InfluxDB - alte Werte automatisch löschen
-
Ist das dann die "Storage Vorhaltezeit"?
Bei der Lösung mit mehreren Instanzen muss ich aber von vorne herein wissen, ob ich ein Objekt unendlich lange behalten will oder nur eine gewisse Zeit, richtig?
Kann ich dann in Grafana auch Daten aus beiden Instanzen gleichzeitig anzeigen lassen?Gruß Wolfgang
-
@wolfgangfb sagte in InfluxDB - alte Werte automatisch löschen:
aer das automatisches Löschen ist immer noch nicht da.
dann bleib ich doch lieber bei history
-
@wolfgangfb Die Vorhaltezeit stellt nur retention Time im Bucket der Influx DB ein. Sprich das gilt für die gesamte Db. Ja und das mit den Objekten musst Du im Vorfeld wissen.
Wie gesagt die Downsizing Tasks solltest Du innerhalb der InfluxDB definieren.
In Grafana kenn ich mich weniger aus, aber ich denke in den Datenquellen musst Du ja auch immer die Datenquellen angeben. Sprich da steht ja von welchem bucket die Daten geholt werden.
from(bucket: "iobroker") |> range(start: v.timeRangeStart, stop: v.timeRangeStop) |> filter(fn: (r) => r["_measurement"] == "mqtt.1.shellies.shellyplug-s-999.relay.0.power")
Wenn Du über Abfragen Daten aus der DB löschen willst: s. hier: https://docs.influxdata.com/influxdb/v2.4/write-data/delete-data/
über predicate nur bestimmte Werte, sonst kann man auch die ganze Datenbank von Daten befreien.
Man kann auch Eine Range dynamisch bestimmen:
from(bucket: "iobroker") |> range("start": 0,"stop": -1mo)
Wenn man so was macht kommen alle Daten älter als 1 Monat und die kannst dann löschen.
-
@homoran Das ist auch im SQL Adapter so, dass man es dort per DP festlegt. Die InfluxDB geht aber davon aus, dass man diese ganzen Zeitberechnungen und Konsolidierungen etc. innerhalb der Influx DB macht, weil sie dafür ja gebaut ist.
-
@mickym sagte in InfluxDB - alte Werte automatisch löschen:
innerhalb der Influx DB macht, weil sie dafür ja gebaut ist.
dann sollte aber der Adapter bestenfalls diese Konfiguration bereitstellen.
-
@homoran Wie gesagt - der Adapter stellt das ja um. Gibt einige Beiträge, die sich wundern warum sie ein bucket in der InfluxDB auf unendlich gestellt haben und dann im Adapter auf einen Monat und sich dann wundern, wenn sie wieder in die Influx DB schauen, warum da wieder auf 1 Monat umgestellt ist.
-
@mickym sagte in InfluxDB - alte Werte automatisch löschen:
der Adapter stellt das ja um.
aber doch nur global wenn ich das richtig verstanden habe.
will man unterschiedliche Aufbewahrungszeiten haben muss man "tricksen" und wie dann?
braucht es für jede unterschiedliche Rückhaltezeit eine Instanz? -
@homoran Ja. Wie gesagt Konsolidieren oder Daten löschen - sollte man dann in der influxDB. Wenn der Adapter solche Aufgaben über nehmen sollte, dann müsste er solche Abfragen, die ich unten gepostet habe, zyklisch an die Influx Db schicken.
Also entweder man macht es grob über die Instanz. Ansonsten MUSS man es zwingend innerhalb der influxDB machen.
Man kann auch selbst solche Queries machen und dann über den Adapter schicken, aber so komfortabel wie mit dem History oder SQL Adapter geht es nicht, wo der Adapter das pro Datenpunkt ausführt. Es ging technisch schon, aber dazu müsste der Adapterentwickler des influxDB Adapters das entsprechend einbauen und diesen "Löschtask" genauso einmal pro Tag ausführen, wie beim History- oder SQL Adapter.
@homoran sagte in InfluxDB - alte Werte automatisch löschen:
will man unterschiedliche Aufbewahrungszeiten haben muss man "tricksen" und wie dann?
Wie gesagt tasks in der Influx DB erstellen.
Ob man die gleiche relative Schreibweise verwenden kann weiß ich nicht. Dazu stecke ich nicht tief genug drin.
-
@mickym sagte in InfluxDB - alte Werte automatisch löschen:
Wie gesagt tasks in der Influx DB erstellen.
dann habe ich es entweder nicht verstanden oder nicht richtig rübergebracht.
Men Verständnis war, dass ich für verschiedene Rückhaltezeiten auch verschiedene buckets (was immer das sein mag) erstelken muss.
Mein Gedanke für eine "relativ" einfache Anwendung wären dann mehrere Instanzen des influxDB-Adapters, bei dem jede Instanz auf ein bucket zugreift
-
@homoran Ja ist ja richtig - wenn Du keine Tasks in der influx DB definieren willst und keine Abfragen aus dem iobroker machen willst, kannst Du das nur über verschiedene Instanzen die auf verschiedene Datenbanken mit unterschiedlicher Retention Time zugreifen.