Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. Off Topic
    4. influxdb2 - Downsampling per Tasks

    NEWS

    • Neuer Blog: Fotos und Eindrücke aus Solingen

    • ioBroker@Smart Living Forum Solingen, 14.06. - Agenda added

    • ioBroker goes Matter ... Matter Adapter in Stable

    influxdb2 - Downsampling per Tasks

    This topic has been deleted. Only users with topic management privileges can see it.
    • Agrippinenser
      Agrippinenser @Marc Berg last edited by

      @marc-berg sagte in influxdb2 - Downsampling per Tasks:

      ergibt leider gar keinen Sinn.

      das ist vielleicht mein Verständnisproblem !

      Wenn ich diese Abfrage ausführe ergibt das ein zumindest ein Ergebnis. Ob richtig sei mal dahingestellt 🙂

      55ef4f9f-a3c9-4838-9292-bc7a28b23a4d-image.png

      Marc Berg 1 Reply Last reply Reply Quote 0
      • Marc Berg
        Marc Berg Most Active @Agrippinenser last edited by

        @agrippinenser
        Dann ist mir irgendwie unklar, was du erreichen willst. Willst du die Zählerstände im Ergebnis haben oder die Verbräuche?

        Agrippinenser 2 Replies Last reply Reply Quote 0
        • ?
          A Former User @Agrippinenser last edited by

          @agrippinenser

          Moin,

          vielleicht als Denkanstoß,

          import "timezone"
          
          option task = {name: "Downsampling Vb_Stromzaehler", cron: "15 0 * * *"}
          
          option location = timezone.location(name: "Europe/Berlin")
          
          data =
              from(bucket: "iobroker_strom")
                  |> range(start: -2mo, stop: now())
                  |> filter(fn: (r) => r["_measurement"] == "sonoff.0.DVES_8AA766.SENSOR.SML.total_kwh")
                  |> filter(fn: (r) => r["_field"] == "value")
                  // Spalten "_start", "_stop", "ack", "from", "q", ausschliessen
                  |> drop(columns: ["ack", "q", "from"])
          
          data
              |> aggregateWindow(every: 1d, fn: last, timeSrc: "_time")
              // In Wh ohne Komma
              |> toInt()
              |> set(key: "_measurement", value: "Hauptzaehler")
              // Use the to() function to validate that the results look correct. This is optional.
              |> to(bucket: "Stromverbrauch", org: "iobroker_strom")
          

          VG
          Bernd

          1 Reply Last reply Reply Quote 1
          • Agrippinenser
            Agrippinenser @Marc Berg last edited by Agrippinenser

            @marc-berg sagte in influxdb2 - Downsampling per Tasks:

            dann ist mir irgendwie unklar, was du erreichen willst.

            hätte ich auch vorher sagen sollen. Ich wollte downsampling üben.

            Zu Testzwecken werden alle paar Sekunden Zählerstände des Stromzählers in Bucket "zaehlerstand.strom" geschrieben.
            Nun sollte das Range zwischen(Anfang und Ende) der letzten 5 Minuten ermittelt werden und ins Bucket "test5m" wegeschieben werden.

            Marc Berg 1 Reply Last reply Reply Quote 0
            • Agrippinenser
              Agrippinenser @Marc Berg last edited by Agrippinenser

              @marc-berg

              vielleicht noch .. es geht mir weniger um das richte Ergebnis sodern das überhaupt etwas geschrieben wird.

              @marc-berg sagte in influxdb2 - Downsampling per Tasks:

              ergibt leider gar keinen Sinn.

              könntest du eine Abfrage zum errechnen der Differenz zwischen min und max innerhalb des Zeitraumes vorschlagen?

              1 Reply Last reply Reply Quote 0
              • Marc Berg
                Marc Berg Most Active @Agrippinenser last edited by Marc Berg

                @agrippinenser sagte in influxdb2 - Downsampling per Tasks:

                Nun sollte das Range zwischen(Anfang und Ende) der letzten 5 Minuten ermittelt werden und ins Bucket "test5m" wegeschieben werden.

                okay, das ginge z.B. so:

                from(bucket: "iobroker")
                  |> range(start:-5m)
                  |> filter(fn: (r) => r["_measurement"] == "zaehlerstand.strom")
                  |> filter(fn: (r) => r["_field"] == "value")
                  |> difference()
                  |> aggregateWindow(every:5m,fn:sum,createEmpty:false)
                

                Damit ermitteltst du im ersten Schritt alle Differenzen zwischen allen Einzelwerten im Zeitraum und bildest danach die Summe aller Differenzen. Damit ist eigentlich dein Ziel erreicht, trotzdem würde ich es so nicht machen, da dir ggf. die Differenzen zwischen den Zeitfenstern verloren gehen können.

                Stattdessen würde ich nicht die Verbräuche "downsamplen", sondern z.B. den jeweils letzten Zählerstand des Tages wegschreiben. Aus diesen Tageswerten kannst du dann dynamisch Verbräuche errechnen. Das(?) Ziel, Speicherplatz zu sparen ist aber erreicht. Das Beispiel von Bernd macht glaube ich, genau das.

                Agrippinenser 1 Reply Last reply Reply Quote 1
                • Agrippinenser
                  Agrippinenser last edited by

                  @marc-berg @dp20eic

                  Vielen Dank euch ... dass muss ich erst mal verarbeiten ..

                  S 1 Reply Last reply Reply Quote 0
                  • S
                    SpacerX @Agrippinenser last edited by

                    @agrippinenser ich hab da auch noch ein Beispiel, wie ich von den Tagestemperaturen Min und Max pro Tag in ein anderes Bucket schreibe.

                    import "timezone"
                    
                    option location = timezone.location(name: "Europe/Berlin")
                    option task = {name: "Downsampling Temperatur_Ost", cron: "10 0 * * *"}
                    
                    data =
                        from(bucket: "ioBroker")
                            // Für Cron: "10 0 * * *" = 0:10 Uhr
                            |> range(start: date.truncate(t: -2d, unit: 1d), stop: today())
                            |> filter(fn: (r) => r["_measurement"] == "Ost_Temperatur")
                            |> filter(fn: (r) => r["from"] == "system.adapter.hm-rpc.0")
                            // Spalten "ack", "from", "q", ausschliessen
                            |> drop(columns: ["ack", "q", "from"])
                    
                    min_temp =
                        data
                            |> aggregateWindow(every: 1d, fn: min, createEmpty: false, timeSrc: "_start")
                            |> set(key: "_field", value: "min")
                    
                    max_temp =
                        data
                            |> aggregateWindow(every: 1d, fn: max, createEmpty: false, timeSrc: "_start")
                            |> set(key: "_field", value: "max")
                    
                    data
                    union(tables: [min_temp, max_temp])
                        |> set(key: "_measurement", value: "Ost_Balkon")
                        |> to(bucket: "Temperaturen", org: "RBE")
                    

                    Anzeigen aus dem anderen Bucket mit:

                    import "timezone" // import wegen der Berechnung um 02:00:00
                    option location = timezone.location(name: "Europe/Berlin")
                    
                    from(bucket: "Temperaturen")
                      |> range(start: -1y, stop: now())
                      |> filter(fn: (r) => r["_measurement"] == "Ost_Balkon")
                      |> filter(fn: (r) => r["_field"] == "max" or r["_field"] == "min")
                      |> yield(name: "Ost")
                    

                    Viel Spaß beim durchforsten.

                    Agrippinenser 1 Reply Last reply Reply Quote 1
                    • Agrippinenser
                      Agrippinenser @Marc Berg last edited by Agrippinenser

                      @marc-berg

                      @marc-berg sagte in influxdb2 - Downsampling per Tasks:

                      Stattdessen würde ich nicht die Verbräuche "downsamplen", sondern z.B. den jeweils letzten Zählerstand des Tages wegschreiben.

                      Dank eurer Hilfe bin ich einen riesen Schritt weiter gekommen. Daten werden richtig aggregiert per Task geschrieben und ich finde sie auch wieder. 👍
                      Den letzten Zählerstand niederschreiben macht Sinn! Das bringt mich allerdings zu grundlegender selbstkritischer Idee:
                      "Warum protokolliere ich den Zählerstand vor Tageswechsel nicht mittels Skript in einen Datenpunkt und mache stattdessen solche Umwege?"

                      .. wo wir gerade dabei sind, habe dieses gestern im Netz gefunden, weis leider nicht mehr wo.
                      Hier wird min / max / range ausgegeben. Vielleicht kann es jemand brauchen.

                      from(bucket: "iobroker")
                      //  |> range(start: 1970-01-01T00:00:00Z, stop: now())
                      //  |> range(start: v.timeRangeStart, stop: v.timeRangeStop)
                        |> range(start:-24d)
                        |> filter(fn: (r) => r["_measurement"] == "zaehlerstand.strom")
                        |> filter(fn: (r) => r["_field"] == "value")
                        |> reduce(fn: (r,
                          accumulator) => ({
                            min: if r._value < accumulator.min then r._value else accumulator.min,
                            max: if r._value > accumulator.max then r._value else accumulator.max
                          }),
                          identity: {min: 10000000000.0, max: -10000000000.0})
                        |> map(fn: (r) => ({ r with range: (r.max - r.min)*1.0 }))
                        |> yield(name: "Range/[kWh]")
                      

                      vielen Dank !
                      LG

                      1 Reply Last reply Reply Quote 0
                      • Agrippinenser
                        Agrippinenser @SpacerX last edited by

                        @spacerx

                        vielen Dank dafür. Ich nutze das nun etwas abgeändert für abfragen von min max Aktienkurse.

                        ich muss zugeben das ich den Umstieg von V1.8 auf 2.x unterschätz habe. Aber so langsam geht's voran ✌

                        import "date"
                        import "timezone"
                        option location = timezone.location(name: "Europe/Berlin")
                        
                        data =
                            from(bucket: "iobroker")
                                |> range(start: date.truncate(t: -1d, unit: 1d), stop: today())
                                |> filter(fn: (r) => r["_measurement"] == "Aktien_WKN_XXXXXX")
                                |> filter(fn: (r) => r["_field"] == "value")
                                |> drop(columns: ["ack", "q", "from"])
                        
                        minkurs =
                            data
                                |> aggregateWindow(every: 1d, fn: min, createEmpty: false, timeSrc: "_start")
                                |> set(key: "_field", value: "min")
                        
                        maxkurs =
                            data
                                |> aggregateWindow(every: 1d, fn: max, createEmpty: false, timeSrc: "_start")
                                |> set(key: "_field", value: "max")
                        
                        data
                            union(tables: [minkurs, maxkurs])
                            |> set(key: "_measurement", value: "min_max_Kurse")
                            |> to(bucket: "Tageskurse", org: "home")
                        
                        B 1 Reply Last reply Reply Quote 0
                        • B
                          babl @Agrippinenser last edited by

                          @agrippinenser
                          @SpacerX
                          kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                          Danke

                          ? Marc Berg 2 Replies Last reply Reply Quote 0
                          • ?
                            A Former User @babl last edited by

                            @babl sagte in influxdb2 - Downsampling per Tasks:

                            @agrippinenser
                            @SpacerX
                            kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                            Danke

                            Moin,

                            kannst Du zeigen, was Du gemacht hast, denn meine Glaskugel ist zur Politur.

                            VG
                            Bernd

                            B 1 Reply Last reply Reply Quote 0
                            • B
                              babl @Guest last edited by

                              @dp20eic ich habe das task script von oben genommen, habe es in einen task eingegeben und nach meinen datenpunkten angepasst und dann wollte ich das speichern um es zu testen, wenn ich auf den button save klicke ändert sich der mauszeiger in ein durchfahrtsverbot und das wars.

                              Habe es jetzt aber anders gelöst, im data explorer die datenpunkte ausgewählt die ich aggregieren will und dann save as "task" angeklickt, hier wird der task gespeichert, so nun bin ich mal am testen daß ich hier vernünftige lösungen hinbekomme um auch die datenbank nicht zu groß werden zu lassen und doch vernünftig daten auf längere sicht zu haben.

                              1 Reply Last reply Reply Quote 0
                              • Marc Berg
                                Marc Berg Most Active @babl last edited by Marc Berg

                                @babl sagte in influxdb2 - Downsampling per Tasks:

                                kann mir mal bitte jemand erklären warum ich keinen task speichern kann der button ist ausgegraut.

                                "Save" wird nur aktiv, wenn mindestens "Name" und "Every/Cron" ausgefüllt wurde.

                                7c6464ac-7594-4553-8809-30f7b7d621d8-grafik.png

                                Agrippinenser 1 Reply Last reply Reply Quote 0
                                • Agrippinenser
                                  Agrippinenser @Marc Berg last edited by

                                  @marc-berg hei!

                                  ..und falls es ein CRON Job werden soll dann konfiguriere ich dort UTC, also für 23:59 Uhr 59 21 * * *
                                  Zumindest habe ich das nach gefühlt 73 Versuchen für mich festgestellt.

                                  1 Reply Last reply Reply Quote 0
                                  • First post
                                    Last post

                                  Support us

                                  ioBroker
                                  Community Adapters
                                  Donate

                                  788
                                  Online

                                  31.7k
                                  Users

                                  79.8k
                                  Topics

                                  1.3m
                                  Posts

                                  5
                                  18
                                  712
                                  Loading More Posts
                                  • Oldest to Newest
                                  • Newest to Oldest
                                  • Most Votes
                                  Reply
                                  • Reply as topic
                                  Log in to reply
                                  Community
                                  Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                                  The ioBroker Community 2014-2023
                                  logo