Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. Off Topic
    4. InfluxDB - alte Werte automatisch löschen

    NEWS

    • ioBroker@Smart Living Forum Solingen, 14.06. - Agenda added

    • ioBroker goes Matter ... Matter Adapter in Stable

    • Monatsrückblick - April 2025

    InfluxDB - alte Werte automatisch löschen

    This topic has been deleted. Only users with topic management privileges can see it.
    • W
      WolfgangFB @mickym last edited by

      @mickym

      Ist das dann die "Storage Vorhaltezeit"?
      Bei der Lösung mit mehreren Instanzen muss ich aber von vorne herein wissen, ob ich ein Objekt unendlich lange behalten will oder nur eine gewisse Zeit, richtig?
      Kann ich dann in Grafana auch Daten aus beiden Instanzen gleichzeitig anzeigen lassen?

      Gruß Wolfgang

      mickym 1 Reply Last reply Reply Quote 0
      • Homoran
        Homoran Global Moderator Administrators @WolfgangFB last edited by

        @wolfgangfb sagte in InfluxDB - alte Werte automatisch löschen:

        aer das automatisches Löschen ist immer noch nicht da.

        dann bleib ich doch lieber bei history
        Screenshot_20221112-174719_Firefox.jpg

        mickym 1 Reply Last reply Reply Quote 0
        • mickym
          mickym Most Active @WolfgangFB last edited by mickym

          @wolfgangfb Die Vorhaltezeit stellt nur retention Time im Bucket der Influx DB ein. Sprich das gilt für die gesamte Db. Ja und das mit den Objekten musst Du im Vorfeld wissen.

          Wie gesagt die Downsizing Tasks solltest Du innerhalb der InfluxDB definieren.

          In Grafana kenn ich mich weniger aus, aber ich denke in den Datenquellen musst Du ja auch immer die Datenquellen angeben. Sprich da steht ja von welchem bucket die Daten geholt werden.

          from(bucket: "iobroker")
            |> range(start: v.timeRangeStart, stop: v.timeRangeStop)
            |> filter(fn: (r) => r["_measurement"] == "mqtt.1.shellies.shellyplug-s-999.relay.0.power")
          

          Wenn Du über Abfragen Daten aus der DB löschen willst: s. hier: https://docs.influxdata.com/influxdb/v2.4/write-data/delete-data/

          über predicate nur bestimmte Werte, sonst kann man auch die ganze Datenbank von Daten befreien.

          Man kann auch Eine Range dynamisch bestimmen:

          from(bucket: "iobroker")
            |> range("start": 0,"stop": -1mo)
          

          Wenn man so was macht kommen alle Daten älter als 1 Monat und die kannst dann löschen.

          1 Reply Last reply Reply Quote 0
          • mickym
            mickym Most Active @Homoran last edited by

            @homoran Das ist auch im SQL Adapter so, dass man es dort per DP festlegt. Die InfluxDB geht aber davon aus, dass man diese ganzen Zeitberechnungen und Konsolidierungen etc. innerhalb der Influx DB macht, weil sie dafür ja gebaut ist.

            Homoran 1 Reply Last reply Reply Quote 0
            • Homoran
              Homoran Global Moderator Administrators @mickym last edited by

              @mickym sagte in InfluxDB - alte Werte automatisch löschen:

              innerhalb der Influx DB macht, weil sie dafür ja gebaut ist.

              dann sollte aber der Adapter bestenfalls diese Konfiguration bereitstellen.

              mickym 1 Reply Last reply Reply Quote 0
              • mickym
                mickym Most Active @Homoran last edited by

                @homoran Wie gesagt - der Adapter stellt das ja um. Gibt einige Beiträge, die sich wundern warum sie ein bucket in der InfluxDB auf unendlich gestellt haben und dann im Adapter auf einen Monat und sich dann wundern, wenn sie wieder in die Influx DB schauen, warum da wieder auf 1 Monat umgestellt ist.

                Homoran 1 Reply Last reply Reply Quote 0
                • Homoran
                  Homoran Global Moderator Administrators @mickym last edited by

                  @mickym sagte in InfluxDB - alte Werte automatisch löschen:

                  der Adapter stellt das ja um.

                  aber doch nur global wenn ich das richtig verstanden habe.
                  will man unterschiedliche Aufbewahrungszeiten haben muss man "tricksen" und wie dann?
                  braucht es für jede unterschiedliche Rückhaltezeit eine Instanz?

                  mickym 1 Reply Last reply Reply Quote 0
                  • mickym
                    mickym Most Active @Homoran last edited by mickym

                    @homoran Ja. Wie gesagt Konsolidieren oder Daten löschen - sollte man dann in der influxDB. Wenn der Adapter solche Aufgaben über nehmen sollte, dann müsste er solche Abfragen, die ich unten gepostet habe, zyklisch an die Influx Db schicken.

                    Also entweder man macht es grob über die Instanz. Ansonsten MUSS man es zwingend innerhalb der influxDB machen.

                    Man kann auch selbst solche Queries machen und dann über den Adapter schicken, aber so komfortabel wie mit dem History oder SQL Adapter geht es nicht, wo der Adapter das pro Datenpunkt ausführt. Es ging technisch schon, aber dazu müsste der Adapterentwickler des influxDB Adapters das entsprechend einbauen und diesen "Löschtask" genauso einmal pro Tag ausführen, wie beim History- oder SQL Adapter.

                    @homoran sagte in InfluxDB - alte Werte automatisch löschen:

                    will man unterschiedliche Aufbewahrungszeiten haben muss man "tricksen" und wie dann?

                    Wie gesagt tasks in der Influx DB erstellen.

                    Ob man die gleiche relative Schreibweise verwenden kann weiß ich nicht. Dazu stecke ich nicht tief genug drin.

                    Homoran 1 Reply Last reply Reply Quote 0
                    • Homoran
                      Homoran Global Moderator Administrators @mickym last edited by

                      @mickym sagte in InfluxDB - alte Werte automatisch löschen:

                      Wie gesagt tasks in der Influx DB erstellen.

                      dann habe ich es entweder nicht verstanden oder nicht richtig rübergebracht.

                      Men Verständnis war, dass ich für verschiedene Rückhaltezeiten auch verschiedene buckets (was immer das sein mag) erstelken muss.

                      Mein Gedanke für eine "relativ" einfache Anwendung wären dann mehrere Instanzen des influxDB-Adapters, bei dem jede Instanz auf ein bucket zugreift

                      mickym 1 Reply Last reply Reply Quote 0
                      • mickym
                        mickym Most Active @Homoran last edited by

                        @homoran Ja ist ja richtig - wenn Du keine Tasks in der influx DB definieren willst und keine Abfragen aus dem iobroker machen willst, kannst Du das nur über verschiedene Instanzen die auf verschiedene Datenbanken mit unterschiedlicher Retention Time zugreifen.

                        1 Reply Last reply Reply Quote 0
                        • First post
                          Last post

                        Support us

                        ioBroker
                        Community Adapters
                        Donate

                        842
                        Online

                        31.7k
                        Users

                        79.8k
                        Topics

                        1.3m
                        Posts

                        4
                        18
                        1439
                        Loading More Posts
                        • Oldest to Newest
                        • Newest to Oldest
                        • Most Votes
                        Reply
                        • Reply as topic
                        Log in to reply
                        Community
                        Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                        The ioBroker Community 2014-2023
                        logo