NEWS
Vergleichskurve in Grafana mit influx Daten
-
Moin,
wie ermittelst Du?
SourceAnalytix Adapter?
Skript?Wenn, dann brauchst Du erst einmal einen echten totalen Wert, der nur größer werden kann. Dann kannst Du auch mit der ursprünglichen Abfrage arbeiten.
Ich habe mal bei Deinen Tageswerten, in die Abfrage ein
cumulativeSum
hinzugefügt.import "timezone" option location = timezone.location(name: "Europe/Berlin") from(bucket: "test_bucket") |> range(start: -7d, stop: now()) |> filter(fn: (r) => r["_measurement"] == "0_userdata.0.Solarweb.Current.01_Day.Energy.EnergyProductionTotal") |> filter(fn: (r) => r["_field"] == "value") |> cumulativeSum(columns: ["_value"]) |> set(key: "_field", value: "aktuelle Woche") |> drop(columns:["from","ack", "q"]) |> aggregateWindow(every: 1d, fn: last, timeSrc: "_start", createEmpty: false) //|> difference(nonNegative: false, columns: ["_value"])
Dann sieht das für die Woche so aus:
Wenn ich dann die Vorwoche noch dazu hole, dann passt natürlich die X-Achse nicht mehr
Query A: import "timezone" option location = timezone.location(name: "Europe/Berlin") from(bucket: "test_bucket") |> range(start: -7d, stop: now()) |> filter(fn: (r) => r["_measurement"] == "0_userdata.0.Solarweb.Current.01_Day.Energy.EnergyProductionTotal") |> filter(fn: (r) => r["_field"] == "value") |> cumulativeSum(columns: ["_value"]) |> set(key: "_field", value: "aktuelle Woche") |> drop(columns:["from","ack", "q"]) |> aggregateWindow(every: 1d, fn: last, timeSrc: "_start", createEmpty: false) //|> difference(nonNegative: false, columns: ["_value"]) Query B: import "timezone" option location = timezone.location(name: "Europe/Berlin") from(bucket: "test_bucket") |> range(start: -14d, stop: -7d) |> timeShift(duration: 7d) |> filter(fn: (r) => r["_measurement"] == "0_userdata.0.Solarweb.Current.01_Day.Energy.EnergyProductionTotal") |> filter(fn: (r) => r["_field"] == "value") |> cumulativeSum(columns: ["_value"]) |> set(key: "_field", value: "letzte Woche") |> drop(columns:["from","ack", "q"]) |> aggregateWindow(every: 1d, fn: last, timeSrc: "_start", createEmpty: false) //|> difference(nonNegative: false, columns: ["_value"])
Ich schaue gerade wie ich die Zeitwerte aus Deinen Daten in Wochentag Namen ummodeln kann, dann würde man auf der X-Achse nur noch der Wochenname stehen
VG
Bernd -
@dp20eic
achso, der wird täglich auf 0 gesetzt.
also muss ich mir nur einen anderen Datenpunkt holen, das war mir nicht bewusst. -
@dp20eic
jetzt geht zumindest A. B mag mich jedoch trotzdem nicht.
eine neue csv falls benötigt
-
Moin,
wenn Du jetzt aus einem Jahreswert aufbaust, dann ja, kannst mir da noch mal einen Abzug manchen.
Query A: import "experimental/date/boundaries" thisWeek = boundaries.week() //lastWeek = boundaries.week(week_offset: -1) from(bucket: "test_bucket") |> range(start: thisWeek.start, stop: thisWeek.stop) //|> range(start: lastWeek.start, stop: lastWeek.stop) //|> range(start: -7d, stop: now()) |> filter(fn: (r) => r["_measurement"] == "0_userdata.0.Solarweb.Current.01_Day.Energy.EnergyProductionTotal") |> filter(fn: (r) => r["_field"] == "value") |> cumulativeSum(columns: ["_value"]) |> set(key: "_field", value: "aktuelle Woche") |> drop(columns:["from","ack", "q"]) |> aggregateWindow(every: 1d, fn: last, timeSrc: "_start", createEmpty: false) //|> difference(nonNegative: false, columns: ["_value"]) Query B: import "experimental/date/boundaries" //thisWeek = boundaries.week() lastWeek = boundaries.week(week_offset: -1) from(bucket: "test_bucket") //|> range(start: thisWeek.start, stop: thisWeek.stop) |> range(start: lastWeek.start, stop: lastWeek.stop) //|> range(start: -14d, stop: -7d) |> timeShift(duration: 7d) |> filter(fn: (r) => r["_measurement"] == "0_userdata.0.Solarweb.Current.01_Day.Energy.EnergyProductionTotal") |> filter(fn: (r) => r["_field"] == "value") |> cumulativeSum(columns: ["_value"]) |> set(key: "_field", value: "letzte Woche") |> drop(columns:["from","ack", "q"]) |> aggregateWindow(every: 1d, fn: last, timeSrc: "_start", createEmpty: false) //|> difference(nonNegative: false, columns: ["_value"])
VG
BerndEdit
Hab die Datei gesehen, hat sich etwas versteckt -
@dp20eic
wenn ich das richtig gelesen habe, sind die Wochentage Settings in den Grundeinstellungen, somit muss man damit leben -
Moin,
Mit den Jahreswerten:
Query A = aktuelle Woche import "timezone" option location = timezone.location(name: "Europe/Berlin") from(bucket: "test_bucket") |> range(start: -7d, stop: now()) |> filter(fn: (r) => r["_measurement"] == "0_userdata.0.Solarweb.Current.06_Year.Energy.EnergyProductionTotal") |> filter(fn: (r) => r["_field"] == "value") |> set(key: "_field", value: "aktuelle Woche") |> drop(columns:["from","ack", "q"]) |> aggregateWindow(every: 1d, fn: last, timeSrc: "_start", createEmpty: false) |> difference(nonNegative: false, columns: ["_value"]) Query B = letzte Woche import "timezone" option location = timezone.location(name: "Europe/Berlin") from(bucket: "test_bucket") |> range(start: -14d, stop: -7d) |> timeShift(duration: 7d) |> filter(fn: (r) => r["_measurement"] == "0_userdata.0.Solarweb.Current.06_Year.Energy.EnergyProductionTotal") |> filter(fn: (r) => r["_field"] == "value") |> set(key: "_field", value: "letzte Woche") |> drop(columns:["from","ack", "q"]) |> aggregateWindow(every: 1d, fn: last, timeSrc: "_start", createEmpty: false) |> difference(nonNegative: false, columns: ["_value"])
So wenn ich auf die Woche schaue, also von Montag - Sonntag
Query A import "experimental/date/boundaries" thisWeek = boundaries.week() //lastWeek = boundaries.week(week_offset: -1) from(bucket: "test_bucket") |> range(start: thisWeek.start, stop: thisWeek.stop) //|> range(start: lastWeek.start, stop: lastWeek.stop) //|> range(start: -7d, stop: now()) |> filter(fn: (r) => r["_measurement"] == "0_userdata.0.Solarweb.Current.06_Year.Energy.EnergyProductionTotal") |> filter(fn: (r) => r["_field"] == "value") //|> cumulativeSum(columns: ["_value"]) |> set(key: "_field", value: "aktuelle Woche") |> drop(columns:["from","ack", "q"]) |> aggregateWindow(every: 1d, fn: last, timeSrc: "_start", createEmpty: false) |> difference(nonNegative: false, columns: ["_value"]) Query B import "experimental/date/boundaries" //thisWeek = boundaries.week() lastWeek = boundaries.week(week_offset: -1) from(bucket: "test_bucket") //|> range(start: thisWeek.start, stop: thisWeek.stop) |> range(start: lastWeek.start, stop: lastWeek.stop) //|> range(start: -14d, stop: -7d) |> timeShift(duration: 7d) |> filter(fn: (r) => r["_measurement"] == "0_userdata.0.Solarweb.Current.06_Year.Energy.EnergyProductionTotal") |> filter(fn: (r) => r["_field"] == "value") //|> cumulativeSum(columns: ["_value"]) |> set(key: "_field", value: "letzte Woche") |> drop(columns:["from","ack", "q"]) |> aggregateWindow(every: 1d, fn: last, timeSrc: "_start", createEmpty: false) |> difference(nonNegative: false, columns: ["_value"])
Das mit der X-Achse bekomme ich auch noch hin, muss nur ab und an andere Dinge machen und bin dann von Mittwoch im Urlaub, etwas Sonne tanken
VG
Bernd -
@dp20eic
dann flott Koffer richten, bei dem was ich dich bereits gequält habe, hast du dir das redlich verdientich glaube bei mir liegt irgendwas anderes quer.
Jedes Mal beim Teil B mit dem Versatz um 7 Tage rödelt der Aktualisierungskreis eine gefüllte Ewigkeit und dann wieder die tolle Meldung:Post "http://xyz:8086/api/v2/query?org=my-org": net/http: timeout awaiting response headers (Client.Timeout exceeded while awaiting headers)
-
@maximal1981 sagte in Vergleichskurve in Grafana mit influx Daten:
Post "http://xyz:8086/api/v2/query?org=my-org": net/http: timeout awaiting response headers (Client.Timeout exceeded while awaiting headers)
Moin,
habe den Überblick verloren, wie bist Du unterwegs?
Getrennte Docker, LXC Container, VMs?
Lass mal ein
ping
nebenher laufen vom Grafana zurinfluxDb
und Stress das System mal.Du siehst dann, wenn Du den
ping
stoppst--- influxdb-v2-prod.fritz.box ping statistics --- 26 packets transmitted, 26 received, 0% packet loss, time 25035ms rtt min/avg/max/mdev = 0.038/0.059/0.078/0.009 ms
Und schau mal ob Du
packete
verlierst.VG
Bernd -
@dp20eic
ich hab mal ein grafana update gemacht.War ein großer Fehler, da meine dashboards nicht mehr angezeigt wurden, da die settings auf default gesetzt werden.
Ist aber leicht zu fixen wenn man eine Ahnung hat warum (hatte ich aber nicht^^), deswegen hier gleich mal die nötigen Schritte:
- die grafana setting Datei ausfindig machen
- und folgende Werte darin anpassen:
[auth.anonymous] # enable anonymous access enabled = true # specify organization name that should be used for unauthenticated users org_name = Main Org. <-- egal welche Org ihr habt nicht ändern # specify role for unauthenticated users org_role = Viewer # mask the Grafana version number for unauthenticated users # Geschmacksache entscheidet selbst hide_version = true
#################################### Security ############################ [security] /* ein wenig runter, ist für iobroker notwendig; direkt geht es aber natürlich nicht eingebettet sagt auch der Schalter set to true if you want to allow browsers to render Grafana in a <frame>, <iframe>, <embed> or <object>. default is false. */ allow_embedding = true
jetzt aber zurück zum Grundproblem.
läuft aktuell alles auf einem Lenovo X1 mit einem i5 und Win 10 ohne Virtualisierung also alles direkt installiert.
Habe mich via rdp drauf geschmissen und das panel neu berechnen lassen und musste mir selbst das tolle Bild reinziehen
influx war kurzfristig über 2 GB RAM und geht dann idle wieder auf ca. 250 MB zurück. Jedich bekomme ich dort keinen Fehler angezeigt, aber auch nicht den Teil B.
Nächste Möglichkeit wäre influx Update, hoffe nur das geht besser von der Hand und ich zerschieße mir nichts.
-
Moin,
Backup, ist besser zu haben, als zu brauchen
Leider bin ich bei Windows raus, ist definitiv nicht meine Baustelle.
VG
Bernd -
@dp20eic
backup hatte ich, nur die ini hatte ich übersehen.ich hoffe, dass es ein Win 10 Problem ist, bin wegen Leistungsproblemen von einem Raspi 4 auf Win 10 umgestiegen. Warte noch auf einen günstigen und vernünftigen NUC um mit Proxmox zu starten, sofern mir keiner was besseres erzählt.
vor der DB Update hab ich aber ein wenig Respekt. würdest du das aktuelle Verhalten echt auf Windows schieben?
Recht viel bleibt nicht mehr über außer DB Version -
Moin,
kann ich wirklich nicht einschätzen, dazu kenne ich mich mit Win zu wenig aus.Die Abfragen kann man ja abschalten
Knips mal A aus und nur B und dann mal andersherum.
VG
Bernd -
@dp20eic
A geht sofort, bei B kommt jetzt aber auch erst nach einer Weile:
Bar charts requires a string or time field