Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. Error/Bug
    4. [gelöst] Fehler beim schreiben auf influxdb

    NEWS

    • Neuer Blog: Fotos und Eindrücke aus Solingen

    • ioBroker@Smart Living Forum Solingen, 14.06. - Agenda added

    • ioBroker goes Matter ... Matter Adapter in Stable

    [gelöst] Fehler beim schreiben auf influxdb

    This topic has been deleted. Only users with topic management privileges can see it.
    • Homoran
      Homoran Global Moderator Administrators @Ben1983 last edited by

      @ben1983 sagte in Fehler beim schreiben auf influxdb:

      point that had error for alias.

      Wieviel Punkte sind es wirklich? scheinen mehrfach die selben zu sein.

      Alles Aliase.
      Mit Error.

      Sind diese Aliase noch korrekt konfiguriert?

      1 Reply Last reply Reply Quote 0
      • Ben1983
        Ben1983 @Guest last edited by

        @dp20eic Sorry.
        Es Ist auch auf einem Docker Container. Der Speicher hat noch mehrere TB frei.
        influxdb V2.7.0
        Auf Grafana sind alle Daten da. Also er schreibt sie wohl.
        @Homoran Wie gesagt, es sind alle Daten da.

        Ich habe jetzt nochmal beide Dockercontainer (iobroker und influxdb) gestartet.
        Bis jetzt geht es.

        Homoran ? 2 Replies Last reply Reply Quote 0
        • Homoran
          Homoran Global Moderator Administrators @Ben1983 last edited by Homoran

          @ben1983 sagte in Fehler beim schreiben auf influxdb:

          beide Dockercontainer

          Solche eminent wichtige Informationen gehören 7n den Eröffnungspost!
          bitte den Link, den @dp20eic dir gepostet hatte lesen und demnächst befolgen.
          Beim nächsten Mal musst du ihn sonst auswendig lernen!

          ? 1 Reply Last reply Reply Quote 0
          • ?
            A Former User @Homoran last edited by

            @homoran sagte in Fehler beim schreiben auf influxdb:

            Beim nächsten Mal musst du ihn sonst auswendig lernen!

            🙃😂

            VG
            Bernd

            OliverIO 1 Reply Last reply Reply Quote 0
            • ?
              A Former User @Ben1983 last edited by

              @ben1983 sagte in Fehler beim schreiben auf influxdb:

              Auf Grafana sind alle Daten da. Also er schreibt sie wohl.

              Moin,

              wenn Dein System, auf dem die Docker laufen, ausgelastet ist, dann kann es sein, dass die Daten nicht schnell genug abgenommen werden, dann bekommt es zu diesen Timeouts.

              Wie sieht denn die Konfiguration des influxDB Adapters aus, Du könntest dort ein paar Daten sammeln, bevor Du sie wegschreibst.

              10b085f8-ad65-4f88-a537-c6d0abeb3166-grafik.png

              Und wie sieht denn die Docker Konfiguration, CPU, RAM aus?

              VG
              Bernd

              Ben1983 1 Reply Last reply Reply Quote 0
              • OliverIO
                OliverIO @Guest last edited by

                @dp20eic

                sowas müsste dann auch in den logs sichtbar sein
                -> applikationslog (hier influxdb)
                -> syslog des containers
                -> syslog des hostsystems

                1 Reply Last reply Reply Quote 0
                • Ben1983
                  Ben1983 @Guest last edited by

                  @dp20eic
                  c97d5d39-9861-4cb6-9b5e-01502f1f0069-image.png

                  036292f4-b416-4da9-b0e4-460d76f570d1-image.png

                  OliverIO ? 2 Replies Last reply Reply Quote 0
                  • OliverIO
                    OliverIO @Ben1983 last edited by OliverIO

                    @ben1983
                    ah ich sehe influx hat mit http 500 geantwortet.
                    d.h. irgendwas ist bei influx schief gegangen.
                    da musst du auf jeden fall ins applikationslog von influx schauen.
                    https://docs.influxdata.com/influxdb/v2.7/admin/logs/

                    der timeout bedeutet nur, das iobroker nicht innerhalb einer bestimmten zeit geantwortet hat, was influx nicht konnte, wegen unvorhergesehenem abbruch

                    1 Reply Last reply Reply Quote 0
                    • ?
                      A Former User @Ben1983 last edited by

                      @ben1983 sagte in Fehler beim schreiben auf influxdb:

                      @dp20eic
                      c97d5d39-9861-4cb6-9b5e-01502f1f0069-image.png

                      036292f4-b416-4da9-b0e4-460d76f570d1-image.png

                      Moin,

                      wirklich nur 108 MB RAM, oder der ohne Begrenzung, nur aktuell verbraucht influxDB nicht mehr?

                      InfluxDB OSS guidelines
                      
                      Run InfluxDB on locally attached solid state drives (SSDs). Other storage configurations have lower performance and may not be able to recover from small interruptions in normal processing.
                      
                      Estimated guidelines include writes per second, queries per second, and number of unique series, CPU, RAM, and IOPS (input/output operations per second).
                      
                      vCPU or CPU RAM IOPS Writes per second Queries* per second Unique series
                      2-4 cores 2-4 GB 500 < 5,000 < 5 < 100,000
                      4-6 cores 8-32 GB 500-1000 < 250,000 < 25 < 1,000,000
                      8+ cores 32+ GB 1000+ > 250,000 > 25 > 1,000,000

                      Nur so als Hinweis, influxDB

                      InfluxDB
                      
                      InfluxDB is a dedicated time series database that borrows many design concepts from **in-memory** databases
                      to improve **write** and **query** performance for time series data specifically. InfluxDB can be configured to use
                      different amounts of memory, write to flash memory for hybrid storage architectures, and writes data to disk
                      using an append-only log to get performance similar to in-memory databases.
                      

                      Wenn bei Dir viele Schreibzugriffe und dann noch Abfragen, z.B. durch Grafana aufeinander treffen, dann ist Speicher gefragt, bin kein Docker Experte, daher kann das, was ich schreibe, auch Quatsch sein, kenne nicht die Mechanismen nicht wie Docker Memory on the Fly zuteilt, ob das schnell genug ist.
                      Was ich damit eigentlich sagen wollte, vielleicht ist es besser dem influxDB Docker feste Werte zuzuweisen.

                      Und wie @OliverIO schrieb, mal die Logs auf dem influxDB Docker durchschauen, was da evtl. geklemmt hat.

                      VG
                      Bernd

                      Ben1983 2 Replies Last reply Reply Quote 0
                      • Ben1983
                        Ben1983 @Guest last edited by

                        @dp20eic

                        Starting precreation service	{"log_id": "0hvKzKT0000", "service": "shard-precreation", "check_interval": "10m", "advance_period": "30m"}
                        2023-05-20T13:21:09.048393Z	info	Starting query controller	{"log_id": "0hvKzKT0000", "service": "storage-reads", "concurrency_quota": 1024, "initial_memory_bytes_quota_per_query": 9223372036854775807, "memory_bytes_quota_per_query": 9223372036854775807, "max_memory_bytes": 0, "queue_size": 1024}
                        2023-05-20T13:21:09.054059Z	info	Configuring InfluxQL statement executor (zeros indicate unlimited).	{"log_id": "0hvKzKT0000", "max_select_point": 0, "max_select_series": 0, "max_select_buckets": 0}
                        2023-05-20T13:21:10.249818Z	info	Starting	{"log_id": "0hvKzKT0000", "service": "telemetry", "interval": "8h"}
                        2023-05-20T13:21:10.250071Z	info	Listening	{"log_id": "0hvKzKT0000", "service": "tcp-listener", "transport": "http", "addr": ":8086", "port": 8086}
                        2023-05-20T13:30:14.998921Z	warn	internal error not returned to client	{"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                        2023-05-20T13:30:35.214408Z	warn	internal error not returned to client	{"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                        2023-05-20T13:31:09.047847Z	info	Cache snapshot (start)	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "op_event": "start"}
                        2023-05-20T13:31:09.637562Z	info	Snapshot for path written	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "path": "/var/lib/influxdb2/engine/data/7218bd3b5168e452/autogen/6", "duration": "589.695ms"}
                        2023-05-20T13:31:09.637615Z	info	Cache snapshot (end)	{"log_id": "0hvKzKT0000", "service": "storage-engine", "engine": "tsm1", "op_name": "tsm1_cache_snapshot", "op_event": "end", "op_elapsed": "589.775ms"}
                        
                        
                        OliverIO ? 2 Replies Last reply Reply Quote 0
                        • Ben1983
                          Ben1983 @Guest last edited by

                          @dp20eic der Verbraucht gerade nur 108MB. Ist unbegrenzt

                          1 Reply Last reply Reply Quote 0
                          • OliverIO
                            OliverIO @Ben1983 last edited by

                            @ben1983

                            jetzt braucht man nur noch den richtigen zeitpunkt
                            2023-05-20 15:07:26.817

                            ? 1 Reply Last reply Reply Quote 0
                            • ?
                              A Former User @OliverIO last edited by

                              @oliverio sagte in Fehler beim schreiben auf influxdb:

                              @ben1983

                              jetzt braucht man nur noch den richtigen zeitpunkt
                              2023-05-20 15:07:26.817

                              Moin,

                              ist UTC 2023-05-20T13:31:09.637615Z + 2 sollte dann 15:31Uhr

                              VG
                              Bernd

                              OliverIO 1 Reply Last reply Reply Quote 0
                              • OliverIO
                                OliverIO @Guest last edited by OliverIO

                                @dp20eic
                                dann startet es 15:21
                                wir benötigen aber 15:07
                                also das vorgänger log wahrscheinlich,
                                je nachdem wie oft neugestartet wurde

                                falls da auch nicht viel drin steht, dann das loglevel erhöhen, sollte aber schon

                                Ben1983 1 Reply Last reply Reply Quote 0
                                • ?
                                  A Former User @Ben1983 last edited by

                                  @ben1983 sagte in Fehler beim schreiben auf influxdb:

                                  2023-05-20T13:30:14.998921Z warn internal error not returned to client {"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}
                                  2023-05-20T13:30:35.214408Z warn internal error not returned to client {"log_id": "0hvKzKT0000", "handler": "error_logger", "error": "context canceled"}

                                  Moin,

                                  schau mal hier https://community.influxdata.com/t/execution-of-heavy-queries-result-in-a-crash/22637 da steht einiges, lese aber auch erst noch.

                                  VG
                                  Bernd

                                  1 Reply Last reply Reply Quote 0
                                  • Ben1983
                                    Ben1983 @OliverIO last edited by

                                    @oliverio

                                    Opened file	{"log_id": "0hvK92MG000", "service": "storage-engine", "engine": "tsm1", "service": "filestore", "path": "/var/lib/influxdb2/engine/data/1bb9099d3b7c3e2b/autogen/4/000000007-000000002.tsm", "id": 0, "duration": "10.483ms"}
                                    2023-05-20T13:06:39.732140Z	info	Opened shard	{"log_id": "0hvK92MG000", "service": "storage-engine", "service": "store", "op_name": "tsdb_open", "index_version": "tsi1", "path": "/var/lib/influxdb2/engine/data/1bb9099d3b7c3e2b/autogen/4", "duration": "1615.077ms"}
                                    2023-05-20T13:06:40.087887Z	info	loading changes (end)	{"log_id": "0hvK92MG000", "service": "storage-engine", "engine": "tsm1", "op_name": "field indices", "op_event": "end", "op_elapsed": "899.816ms"}
                                    2023-05-20T13:06:40.088551Z	info	Reading file	{"log_id": "0hvK92MG000", "service": "storage-engine", "engine": "tsm1", "service": "cacheloader", "path": "/var/lib/influxdb2/engine/wal/7218bd3b5168e452/autogen/6/_00001.wal", "size": 1359140}
                                    2023-05-20T13:06:40.675328Z	info	Opened shard	{"log_id": "0hvK92MG000", "service": "storage-engine", "service": "store", "op_name": "tsdb_open", "index_version": "tsi1", "path": "/var/lib/influxdb2/engine/data/7218bd3b5168e452/autogen/6", "duration": "1510.816ms"}
                                    2023-05-20T13:06:40.675775Z	info	Open store (end)	{"log_id": "0hvK92MG000", "service": "storage-engine", "service": "store", "op_name": "tsdb_open", "op_event": "end", "op_elapsed": "4409.592ms"}
                                    2023-05-20T13:06:40.675870Z	info	Starting retention policy enforcement service	{"log_id": "0hvK92MG000", "service": "retention", "check_interval": "30m"}
                                    2023-05-20T13:06:40.675935Z	info	Starting precreation service	{"log_id": "0hvK92MG000", "service": "shard-precreation", "check_interval": "10m", "advance_period": "30m"}
                                    2023-05-20T13:06:40.677588Z	info	Starting query controller	{"log_id": "0hvK92MG000", "service": "storage-reads", "concurrency_quota": 1024, "initial_memory_bytes_quota_per_query": 9223372036854775807, "memory_bytes_quota_per_query": 9223372036854775807, "max_memory_bytes": 0, "queue_size": 1024}
                                    2023-05-20T13:06:40.682348Z	info	Configuring InfluxQL statement executor (zeros indicate unlimited).	{"log_id": "0hvK92MG000", "max_select_point": 0, "max_select_series": 0, "max_select_buckets": 0}
                                    2023-05-20T13:06:42.173468Z	info	Starting	{"log_id": "0hvK92MG000", "service": "telemetry", "interval": "8h"}
                                    2023-05-20T13:06:42.218552Z	info	Listening	{"log_id": "0hvK92MG000", "service": "tcp-listener", "transport": "http", "addr": ":8086", "port": 8086}
                                    2023-05-20T13:20:43.289848Z	warn	internal error not returned to client	{"log_id": "0hvK92MG000", "handler": "error_logger", "error": "context canceled"}
                                    2023-05-20T13:20:43.296515Z	warn	internal error not returned to client	{"log_id": "0hvK92MG000", "handler": "error_logger", "error": "context canceled"}
                                    
                                    
                                    OliverIO 1 Reply Last reply Reply Quote 0
                                    • OliverIO
                                      OliverIO @Ben1983 last edited by

                                      @ben1983

                                      kannst du bitte mal schauen ob die uhren in beiden containern gleich laufen? also die minuten reichen aus.

                                      das warn internal error not returned könnte passen, aber die zeit passt nicht. da ist der unterschied zu groß

                                      hab auch ein issue gefunden der passen könnte
                                      https://github.com/influxdata/influxdb/issues/24055
                                      allerdings geht es da um große datenmengen.
                                      das schreiben eines datenpunkts ist jetzt wirklich kein großer act
                                      daher könnte es schon sein, das genau zu diesem zeitpunkt die hostmaschine gut ausgelastet ist.
                                      wann läuft dein backup von iobroker oder eines anderen containers?

                                      aber du kannst mal schauen ob man am adapter irgendwo den timeout anpassen kann.

                                      nat45928 created this issue in influxdata/influxdb

                                      open Silent flux failure while using to(), "internal error not returned to client" #24055

                                      Ben1983 1 Reply Last reply Reply Quote 0
                                      • Ben1983
                                        Ben1983 @OliverIO last edited by

                                        @oliverio sagte in Fehler beim schreiben auf influxdb:

                                        @ben1983

                                        kannst du bitte mal schauen ob die uhren in beiden containern gleich laufen? also die minuten reichen aus.

                                        wie genau mache ich das? 🙂

                                        Das Backup läuft nachts um 3 Uhr. Also daran kann es nicht gelegen haben.

                                        OliverIO 3 Replies Last reply Reply Quote 0
                                        • OliverIO
                                          OliverIO @Ben1983 last edited by OliverIO

                                          @ben1983

                                          docker oder portainer?

                                          shell öffnen und dann den date befehl ausführen

                                          shell öffnen mit docker:
                                          docker exec -it <container name> /bin/bash

                                          shell öffnen mit portainer
                                          den container auswählen und dann link zu console
                                          und console öffnen

                                          1 Reply Last reply Reply Quote 0
                                          • OliverIO
                                            OliverIO @Ben1983 last edited by

                                            @ben1983 sagte in Fehler beim schreiben auf influxdb:

                                            Das Backup läuft nachts um 3 Uhr. Also daran kann es nicht gelegen haben

                                            nachts oder nachmittags? am oder pm
                                            der Fehler trat 15:07 auf

                                            1 Reply Last reply Reply Quote 0
                                            • First post
                                              Last post

                                            Support us

                                            ioBroker
                                            Community Adapters
                                            Donate

                                            831
                                            Online

                                            31.8k
                                            Users

                                            80.0k
                                            Topics

                                            1.3m
                                            Posts

                                            5
                                            46
                                            2629
                                            Loading More Posts
                                            • Oldest to Newest
                                            • Newest to Oldest
                                            • Most Votes
                                            Reply
                                            • Reply as topic
                                            Log in to reply
                                            Community
                                            Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                                            The ioBroker Community 2014-2023
                                            logo