Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. ioBroker Allgemein
    4. Adapter-Updates über die Weboberfläche ausgegraut ...

    NEWS

    • [erledigt] 15. 05. Wartungsarbeiten am ioBroker Forum

    • ioBroker goes Matter ... Matter Adapter in Stable

    • Monatsrückblick - April 2025

    Adapter-Updates über die Weboberfläche ausgegraut ...

    This topic has been deleted. Only users with topic management privileges can see it.
    • MartinP
      MartinP @MartinP last edited by

      @martinp nach iob start

      host.iobroker-test-sicher
      	2024-09-16 13:45:39.502	error	cannot get getHostInfo: Cannot read properties of undefined (reading 'speed')
      host.iobroker-test-sicher
      	2024-09-16 13:45:15.064	error	Caught by controller[0]: [pidusage] We couldn't find uptime from /proc/uptime, using os.uptime() value
      
      1 Reply Last reply Reply Quote 0
      • Thomas Braun
        Thomas Braun Most Active @MartinP last edited by

        @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

        uptime: Cannot get system uptime: Transport endpoint is not connected

        Wenn ich mir die ganzen 'obskuren' Meldungen anschaue würde ich sagen, der Container rumpelt da irgendwie ein kleinwenig neben der Spur.

        MartinP 1 Reply Last reply Reply Quote 0
        • MartinP
          MartinP @Thomas Braun last edited by

          @thomas-braun Habe ihn gerade mal neu gestartet ...
          Jetzt ist alles wieder ok...

          d6d26c01-6ae5-4636-be33-ebf5df99924e-grafik.png

          Thomas Braun 1 Reply Last reply Reply Quote 0
          • Thomas Braun
            Thomas Braun Most Active @MartinP last edited by

            @martinp

            Und die ganzen Meldungen/Testfelder aus

            iob diag
            

            sind auch wieder wie erwartet?

            MartinP 1 Reply Last reply Reply Quote 0
            • MartinP
              MartinP @Thomas Braun last edited by MartinP

              @thomas-braun

              Nach Quer gucken sieht das gut aus ... (bis auf die MQTT Adapter Probleme)

              Skript v.2024-05-22
              
              *** BASE SYSTEM ***
               Static hostname: iobroker-test-sicher
                     Icon name: computer-container
                       Chassis: container ☐
                Virtualization: lxc
              Operating System: Debian GNU/Linux 12 (bookworm)
                        Kernel: Linux 6.8.12-1-pve
                  Architecture: x86-64
              
              model name      : Intel(R) Celeron(R) CPU  N3000  @ 1.04GHz
              Docker          : false
              Virtualization  : lxc
              Kernel          : x86_64
              Userland        : 64 bit
              
              Systemuptime and Load:
               14:00:14 up 11 min,  2 users,  load average: 50.09, 49.87, 49.65
              CPU threads: 2
              
              
              *** Time and Time Zones ***
                             Local time: Mon 2024-09-16 14:00:14 CEST
                         Universal time: Mon 2024-09-16 12:00:14 UTC
                               RTC time: n/a
                              Time zone: Europe/Berlin (CEST, +0200)
              System clock synchronized: yes
                            NTP service: inactive
                        RTC in local TZ: no
              
              *** Users and Groups ***
              User that called 'iob diag':
              martin
              HOME=/home/martin
              GROUPS=martin sudo iobroker
              
              User that is running 'js-controller':
              iobroker
              HOME=/home/iobroker
              GROUPS=iobroker tty dialout audio video plugdev
              
              *** Display-Server-Setup ***
              Display-Server: false
              Desktop: 
              Terminal: 
              Boot Target:    graphical.target
              
              *** MEMORY ***
                             total        used        free      shared  buff/cache   available
              Mem:            6.4G        2.0G        3.7G        118K        808M        4.5G
              Swap:           6.4G          0B        6.4G
              Total:           12G        2.0G         10G
              
              Active iob-Instances:   23
              
                       6144 M total memory
                       1872 M used memory
                       2145 M active memory
                        394 M inactive memory
                       3500 M free memory
                          0 M buffer memory
                        771 M swap cache
                       6144 M total swap
                          0 M used swap
                       6144 M free swap
              
              *** top - Table Of Processes  ***
              top - 14:00:14 up 11 min,  2 users,  load average: 50.09, 49.87, 49.65
              Tasks:  50 total,   1 running,  49 sleeping,   0 stopped,   0 zombie
              %Cpu(s): 25.0 us, 25.0 sy,  0.0 ni, 50.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st 
              MiB Mem :   6144.0 total,   3498.8 free,   1874.1 used,    771.3 buff/cache     
              MiB Swap:   6144.0 total,   6144.0 free,      0.0 used.   4269.9 avail Mem 
              
              *** FAILED SERVICES ***
              
                UNIT                                 LOAD   ACTIVE SUB    DESCRIPTION
              * run-rpc_pipefs.mount                 loaded failed failed RPC Pipe File System
              * sys-kernel-config.mount              loaded failed failed Kernel Configuration File System
              * systemd-networkd-wait-online.service loaded failed failed Wait for Network to be Configured
              
              LOAD   = Reflects whether the unit definition was properly loaded.
              ACTIVE = The high-level unit activation state, i.e. generalization of SUB.
              SUB    = The low-level unit activation state, values depend on unit type.
              3 loaded units listed.
              
              *** FILESYSTEM ***
              Filesystem                       Type      Size  Used Avail Use% Mounted on
              /dev/mapper/pve-vm--101--disk--0 ext4       63G   20G   40G  33% /
              none                             tmpfs     492K  4.0K  488K   1% /dev
              udev                             devtmpfs  3.8G     0  3.8G   0% /dev/tty
              tmpfs                            tmpfs     3.9G     0  3.9G   0% /dev/shm
              tmpfs                            tmpfs     1.6G  112K  1.6G   1% /run
              tmpfs                            tmpfs     5.0M     0  5.0M   0% /run/lock
              
              Messages concerning ext4 filesystem in dmesg:
              dmesg: read kernel buffer failed: Operation not permitted
              
              Show mounted filesystems:
              TARGET                                                  SOURCE                           FSTYPE     OPTIONS
              /                                                       /dev/mapper/pve-vm--101--disk--0 ext4       rw,relatime,stripe=16
              |-/run                                                  tmpfs                            tmpfs      rw,nosuid,nodev,size=1595988k,nr_inodes=819200,mode=755,uid=100000,gid=100000,inode64
              | |-/run/lock                                           tmpfs                            tmpfs      rw,nosuid,nodev,noexec,relatime,size=5120k,uid=100000,gid=100000,inode64
              | |-/run/credentials/systemd-tmpfiles-setup-dev.service ramfs                            ramfs      ro,nosuid,nodev,noexec,relatime,mode=700
              | |-/run/credentials/systemd-tmpfiles-setup.service     ramfs                            ramfs      ro,nosuid,nodev,noexec,relatime,mode=700
              | |-/run/credentials/systemd-sysctl.service             ramfs                            ramfs      ro,nosuid,nodev,noexec,relatime,mode=700
              | `-/run/credentials/systemd-sysusers.service           ramfs                            ramfs      ro,nosuid,nodev,noexec,relatime,mode=700
              |-/dev                                                  none                             tmpfs      rw,relatime,size=492k,mode=755,uid=100000,gid=100000,inode64
              | |-/dev/shm                                            tmpfs                            tmpfs      rw,nosuid,nodev,uid=100000,gid=100000,inode64
              | |-/dev/mqueue                                         mqueue                           mqueue     rw,nosuid,nodev,noexec,relatime
              | |-/dev/.lxc/proc                                      proc                             proc       rw,relatime
              | |-/dev/.lxc/sys                                       sys                              sysfs      rw,relatime
              | |-/dev/full                                           udev[/full]                      devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
              | |-/dev/null                                           udev[/null]                      devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
              | |-/dev/random                                         udev[/random]                    devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
              | |-/dev/tty                                            udev[/tty]                       devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
              | |-/dev/urandom                                        udev[/urandom]                   devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
              | |-/dev/zero                                           udev[/zero]                      devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
              | |-/dev/pts                                            devpts                           devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
              | |-/dev/ptmx                                           devpts[/ptmx]                    devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
              | |-/dev/console                                        devpts[/0]                       devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
              | |-/dev/tty1                                           devpts[/1]                       devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
              | `-/dev/tty2                                           devpts[/2]                       devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
              |-/proc                                                 proc                             proc       rw,nosuid,nodev,noexec,relatime
              | |-/proc/sys                                           proc[/sys]                       proc       ro,relatime
              | | |-/proc/sys/net                                     proc[/sys/net]                   proc       rw,nosuid,nodev,noexec,relatime
              | | `-/proc/sys/kernel/random/boot_id                   none[/.lxc-boot-id]              tmpfs      ro,nosuid,nodev,noexec,relatime,size=492k,mode=755,uid=100000,gid=100000,inode64
              | |-/proc/sysrq-trigger                                 proc[/sysrq-trigger]             proc       ro,relatime
              | |-/proc/cpuinfo                                       lxcfs[/proc/cpuinfo]             fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
              | |-/proc/diskstats                                     lxcfs[/proc/diskstats]           fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
              | |-/proc/loadavg                                       lxcfs[/proc/loadavg]             fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
              | |-/proc/meminfo                                       lxcfs[/proc/meminfo]             fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
              | |-/proc/slabinfo                                      lxcfs[/proc/slabinfo]            fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
              | |-/proc/stat                                          lxcfs[/proc/stat]                fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
              | |-/proc/swaps                                         lxcfs[/proc/swaps]               fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
              | `-/proc/uptime                                        lxcfs[/proc/uptime]              fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
              `-/sys                                                  sysfs                            sysfs      ro,nosuid,nodev,noexec,relatime
                |-/sys/fs/fuse/connections                            fusectl                          fusectl    rw,nosuid,nodev,noexec,relatime
                |-/sys/devices/virtual/net                            sysfs[/devices/virtual/net]      sysfs      rw,nosuid,nodev,noexec,relatime
                |-/sys/fs/cgroup                                      none                             cgroup2    rw,nosuid,nodev,noexec,relatime
                `-/sys/devices/system/cpu                             lxcfs[/sys/devices/system/cpu]   fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
              
              Files in neuralgic directories:
              
              /var:
              3.9G    /var/
              2.1G    /var/lib
              1.9G    /var/lib/influxdb/engine/data/f11825691705bf53/autogen
              1.9G    /var/lib/influxdb/engine/data/f11825691705bf53
              1.9G    /var/lib/influxdb/engine/data
              
              Hint: You are currently not seeing messages from other users and the system.
                    Users in groups 'adm', 'systemd-journal' can see all messages.
                    Pass -q to turn off this notice.
              Archived and active journals take up 144.8M in the file system.
              
              /opt/iobroker/backups:
              9.1G    /opt/iobroker/backups/
              
              /opt/iobroker/iobroker-data:
              827M    /opt/iobroker/iobroker-data/
              710M    /opt/iobroker/iobroker-data/files
              441M    /opt/iobroker/iobroker-data/files/javascript.admin
              409M    /opt/iobroker/iobroker-data/files/javascript.admin/static
              408M    /opt/iobroker/iobroker-data/files/javascript.admin/static/js
              
              The five largest files in iobroker-data are:
              24M     /opt/iobroker/iobroker-data/files/web.admin/static/js/main.135279a0.js.map
              19M     /opt/iobroker/iobroker-data/files/vis-2/static/js/main.e7bb655f.js.map
              19M     /opt/iobroker/iobroker-data/files/vis-2/static/js/main.368dc292.js.map
              19M     /opt/iobroker/iobroker-data/files/vis-2/customWidgets.js.map
              15M     /opt/iobroker/iobroker-data/files/vis-2/static/js/376.1862d3de.chunk.js.map
              
              USB-Devices by-id:
              USB-Sticks -  Avoid direct links to /dev/tty* in your adapter setups, please always prefer the links 'by-id':
              
              No Devices found 'by-id'
              
              
              
              
              *** NodeJS-Installation ***
              
              /usr/bin/nodejs         v20.17.0
              /usr/bin/node           v20.17.0
              /usr/bin/npm            10.8.2
              /usr/bin/npx            10.8.2
              /usr/bin/corepack       0.29.3
              
              
              nodejs:
                Installed: 20.17.0-1nodesource1
                Candidate: 20.17.0-1nodesource1
                Version table:
               *** 20.17.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                      100 /var/lib/dpkg/status
                   20.16.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.15.1-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.15.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.14.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.13.1-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.13.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.12.2-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.12.1-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.12.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.11.1-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.11.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.10.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.9.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.8.1-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.8.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.7.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.6.1-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.6.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.5.1-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.5.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.4.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.3.1-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.3.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.2.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.1.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   20.0.0-1nodesource1 1001
                      500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                   18.19.0+dfsg-6~deb12u2 500
                      500 http://ftp.debian.org/debian bookworm/main amd64 Packages
                   18.19.0+dfsg-6~deb12u1 500
                      500 http://security.debian.org bookworm-security/main amd64 Packages
              
              Temp directories causing npm8 problem: 0
              No problems detected
              
              Errors in npm tree:
              
              *** ioBroker-Installation ***
              
              ioBroker Status
              iobroker is running on this host.
              
              
              Objects type: jsonl
              States  type: jsonl
              
              Core adapters versions
              js-controller:  6.0.11
              admin:          7.0.23
              javascript:     8.7.6
              
              nodejs modules from github:     0
              
              Adapter State
              + system.adapter.admin.0                  : admin                 : iobroker-test-sicher                     -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
                system.adapter.alias-manager.0          : alias-manager         : iobroker-test-sicher                     -  enabled
              + system.adapter.backitup.0               : backitup              : iobroker-test-sicher                     -  enabled
              + system.adapter.discovery.0              : discovery             : iobroker-test-sicher                     -  enabled
              + system.adapter.email.0                  : email                 : iobroker-test-sicher                     -  enabled
                system.adapter.fahrplan.0               : fahrplan              : iobroker-test-sicher                     - disabled
              + system.adapter.fb-checkpresence.0       : fb-checkpresence      : iobroker-test-sicher                     -  enabled
                system.adapter.frigate.0                : frigate               : iobroker-test-sicher                     - disabled
              + system.adapter.fritzdect.0              : fritzdect             : iobroker-test-sicher                     -  enabled
                system.adapter.ical.0                   : ical                  : iobroker-test-sicher                     -  enabled
                system.adapter.ical.1                   : ical                  : iobroker-test-sicher                     -  enabled
              + system.adapter.influxdb.0               : influxdb              : iobroker-test-sicher                     -  enabled, port: 8086
              + system.adapter.javascript.0             : javascript            : iobroker-test-sicher                     -  enabled
              + system.adapter.javascript.1             : javascript            : iobroker-test-sicher                     -  enabled
              + system.adapter.meross.0                 : meross                : iobroker-test-sicher                     -  enabled
              + system.adapter.mqtt-client.0            : mqtt-client           : iobroker-test-sicher                     -  enabled, port: 1888
                system.adapter.mqtt-client.1            : mqtt-client           : iobroker-test-sicher                     - disabled, port: 1883
              + system.adapter.mqtt.0                   : mqtt                  : iobroker-test-sicher                     -  enabled, port: 1888, bind: 0.0.0.0
                system.adapter.mqtt.1                   : mqtt                  : iobroker-test-sicher                     - disabled, port: 1883, bind: 0.0.0.0
              + system.adapter.operating-hours.0        : operating-hours       : iobroker-test-sicher                     -  enabled
              + system.adapter.ping.0                   : ping                  : iobroker-test-sicher                     -  enabled
              + system.adapter.reolink.0                : reolink               : iobroker-test-sicher                     -  enabled
              + system.adapter.reolink.1                : reolink               : iobroker-test-sicher                     -  enabled
              + system.adapter.simple-api.0             : simple-api            : iobroker-test-sicher                     -  enabled, port: 8087, bind: 0.0.0.0, run as: admin
              + system.adapter.snmp.0                   : snmp                  : iobroker-test-sicher                     -  enabled
              + system.adapter.sonoff.0                 : sonoff                : iobroker-test-sicher                     -  enabled, port: 1892, bind: 0.0.0.0
              + system.adapter.tradfri.0                : tradfri               : iobroker-test-sicher                     -  enabled
              + system.adapter.vis-2.0                  : vis-2                 : iobroker-test-sicher                     -  enabled
                system.adapter.vis.0                    : vis                   : iobroker-test-sicher                     -  enabled
              + system.adapter.web.0                    : web                   : iobroker-test-sicher                     -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
              
              + instance is alive
              
              Enabled adapters with bindings
              + system.adapter.admin.0                  : admin                 : iobroker-test-sicher                     -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
              + system.adapter.influxdb.0               : influxdb              : iobroker-test-sicher                     -  enabled, port: 8086
              + system.adapter.mqtt-client.0            : mqtt-client           : iobroker-test-sicher                     -  enabled, port: 1888
              + system.adapter.mqtt.0                   : mqtt                  : iobroker-test-sicher                     -  enabled, port: 1888, bind: 0.0.0.0
              + system.adapter.simple-api.0             : simple-api            : iobroker-test-sicher                     -  enabled, port: 8087, bind: 0.0.0.0, run as: admin
              + system.adapter.sonoff.0                 : sonoff                : iobroker-test-sicher                     -  enabled, port: 1892, bind: 0.0.0.0
              + system.adapter.web.0                    : web                   : iobroker-test-sicher                     -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
              
              ioBroker-Repositories
              ┌─────────┬──────────┬─────────────────────────────────────────────────────────┬──────────────┐
              │ (index) │ name     │ url                                                     │ auto upgrade │
              ├─────────┼──────────┼─────────────────────────────────────────────────────────┼──────────────┤
              │ 0       │ 'stable' │ 'http://download.iobroker.net/sources-dist.json'        │ false        │
              │ 1       │ 'beta'   │ 'http://download.iobroker.net/sources-dist-latest.json' │ false        │
              └─────────┴──────────┴─────────────────────────────────────────────────────────┴──────────────┘
              
              Active repo(s): stable
              Upgrade policy: none
              
              Installed ioBroker-Instances
              Used repository: stable
              Adapter    "admin"        : 7.0.23   , installed 7.0.23
              Adapter    "alias-manager": 1.2.6    , installed 1.2.6
              Adapter    "backitup"     : 3.0.22   , installed 3.0.22
              Adapter    "benchmark"    : 1.3.0    , installed 1.3.0
              Adapter    "deconz"       : 1.4.1    , installed 1.4.1
              Adapter    "discovery"    : 4.5.0    , installed 4.5.0
              Adapter    "email"        : 1.3.1    , installed 1.3.1
              Adapter    "fahrplan"     : 1.2.3    , installed 1.2.3
              Adapter    "fb-checkpresence": 1.2.4 , installed 1.2.4
              Adapter    "frigate"      : 1.2.0    , installed 1.2.1
              Adapter    "fritzdect"    : 2.5.11   , installed 2.5.11
              Adapter    "ical"         : 1.15.0   , installed 1.15.0
              Adapter    "influxdb"     : 4.0.2    , installed 4.0.2
              Adapter    "jarvis"       : 3.1.8    , installed 3.1.8
              Adapter    "javascript"   : 8.7.6    , installed 8.7.6
              Controller "js-controller": 6.0.11   , installed 6.0.11
              Adapter    "meross"       : 1.17.0   , installed 1.17.0
              Adapter    "mqtt"         : 5.2.0    , installed 5.2.0
              Adapter    "mqtt-client"  : 2.0.0    , installed 2.0.0
              Adapter    "operating-hours": 1.1.0  , installed 1.1.0
              Adapter    "ping"         : 1.6.2    , installed 1.6.2
              Adapter    "reolink"      : 1.1.1    , installed 1.1.1
              Adapter    "simple-api"   : 2.8.0    , installed 2.8.0
              Adapter    "smartmeter"   : 3.4.0    , installed 3.4.0
              Adapter    "snmp"         : 3.2.0    , installed 3.2.0
              Adapter    "socketio"     : 6.7.1    , installed 6.7.1
              Adapter    "sonoff"       : 3.1.0    , installed 3.1.0
              Adapter    "tr-064"       : 4.3.0    , installed 4.3.0
              Adapter    "tradfri"      : 3.1.3    , installed 3.1.3
              Adapter    "vis"          : 1.5.6    , installed 1.5.6
              Adapter    "vis-2"        : 2.9.32   , installed 2.9.32
              Adapter    "web"          : 6.2.5    , installed 6.2.5
              Adapter    "ws"           : 2.6.2    , installed 2.6.2
              Adapter    "zigbee2mqtt"  : 2.13.6   , installed 2.13.6
              
              Objects and States
              Please stand by - This may take a while
              Objects:        2779
              States:         2351
              
              *** OS-Repositories and Updates ***
              Hit:1 http://ftp.debian.org/debian bookworm InRelease
              Hit:2 http://ftp.debian.org/debian bookworm-updates InRelease
              Hit:3 http://security.debian.org bookworm-security InRelease
              Hit:4 https://repos.influxdata.com/debian stable InRelease
              Hit:5 https://apt.grafana.com stable InRelease
              Hit:6 https://deb.nodesource.com/node_20.x nodistro InRelease
              Reading package lists...
              Pending Updates: 0
              
              *** Listening Ports ***
              Active Internet connections (only servers)
              Proto Recv-Q Send-Q Local Address           Foreign Address         State       User       Inode      PID/Program name    
              tcp        0      0 0.0.0.0:111             0.0.0.0:*               LISTEN      0          108794370  1/init              
              tcp        0      0 0.0.0.0:1892            0.0.0.0:*               LISTEN      1001       108813845  525/io.sonoff.0     
              tcp        0      0 0.0.0.0:1888            0.0.0.0:*               LISTEN      1001       108812050  498/io.mqtt.0       
              tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN      0          108803046  348/master          
              tcp        0      0 127.0.0.1:9000          0.0.0.0:*               LISTEN      1001       108805140  368/iobroker.js-con 
              tcp        0      0 127.0.0.1:9001          0.0.0.0:*               LISTEN      1001       108805058  368/iobroker.js-con 
              tcp6       0      0 :::111                  :::*                    LISTEN      0          108794372  1/init              
              tcp6       0      0 :::22                   :::*                    LISTEN      0          108794682  1/init              
              tcp6       0      0 ::1:25                  :::*                    LISTEN      0          108803047  348/master          
              tcp6       0      0 :::3000                 :::*                    LISTEN      109        108804726  367/grafana         
              tcp6       0      0 :::8087                 :::*                    LISTEN      1001       108816478  687/io.simple-api.0 
              tcp6       0      0 :::8086                 :::*                    LISTEN      998        108803748  172/influxd         
              tcp6       0      0 :::8081                 :::*                    LISTEN      1001       108805796  417/io.admin.0      
              tcp6       0      0 :::8082                 :::*                    LISTEN      1001       108816757  669/io.web.0        
              udp        0      0 0.0.0.0:46184           0.0.0.0:*                           1001       108815704  676/io.tradfri.0    
              udp        0      0 0.0.0.0:40879           0.0.0.0:*                           1001       108815883  587/io.snmp.0       
              udp        0      0 0.0.0.0:111             0.0.0.0:*                           0          108794371  1/init              
              udp6       0      0 :::111                  :::*                                0          108794373  1/init              
              
              *** Log File - Last 25 Lines ***
              
              2024-09-16 13:59:42.757  - info: admin.0 (417) ==> Connected system.user.admin from ::ffff:192.168.2.115
              2024-09-16 13:59:45.755  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 4 deleted after 12 retries
              2024-09-16 13:59:45.755  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 3 deleted after 12 retries
              2024-09-16 14:00:00.074  - info: host.iobroker-test-sicher instance system.adapter.ical.0 in version "1.15.0" started with pid 1500
              2024-09-16 14:00:00.226  - info: javascript.0 (455) script.js.Energiezaehler.Gaszaehler: Actual Pulses 137474 Last Pulses 137469 =0.557
              2024-09-16 14:00:06.909  - info: ical.0 (1500) starting. Version 1.15.0 in /opt/iobroker/node_modules/iobroker.ical, node: v20.17.0, js-controller: 6.0.11
              2024-09-16 14:00:09.415  - info: ical.0 (1500) processing URL: Martin_docker http://192.168.2.146:5232/martin/e4c584bc-2ea6-bae6-1d4e-debe6a702f21/
              2024-09-16 14:00:09.776  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:00:14.925  - info: ical.0 (1500) Terminated (NO_ERROR): Without reason
              2024-09-16 14:00:15.529  - info: host.iobroker-test-sicher instance system.adapter.ical.0 having pid 1500 terminated with code 0 (NO_ERROR)
              2024-09-16 14:00:15.781  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:00:17.792  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:00:19.783  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:00:21.782  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:00:22.567  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] connection closed: closed
              2024-09-16 14:00:31.955  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] connected with secret 1726488031944_3480
              2024-09-16 14:00:31.974  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] Received pubrec on esp32-e0624b304ec0 for unknown messageId 1
              2024-09-16 14:00:59.831  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:01:05.833  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:01:09.833  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:01:11.835  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:01:11.836  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
              2024-09-16 14:01:12.577  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] connection closed: closed
              2024-09-16 14:01:21.946  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] connected with secret 1726488081946_210
              2024-09-16 14:01:21.953  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] Received pubrec on esp32-e0624b304ec0 for unknown messageId 1
              
              
              Ro75 1 Reply Last reply Reply Quote 0
              • Ro75
                Ro75 @MartinP last edited by

                @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

                14:00:14 up 11 min, 2 users, load average: 50.09, 49.87, 49.65

                wirklich?

                Ro75.

                MartinP 1 Reply Last reply Reply Quote 1
                • MartinP
                  MartinP @Ro75 last edited by MartinP

                  @ro75 Ist ein LXC-Container, habe nicht PVE rebootet, sondern nur den Container über die PVE Weboberfläche.... die Weboberfläche von iob war jedenfalls nicht erreichbar 😉

                  EDIT ich sehe da 11 Minuten uptime ...

                  14:10:46 up 22 min,  1 user,  load average: 47.30, 48.30, 49.00
                  

                  Der erste Wert ist wohl die aktuelle Uhrzeit

                  Thomas Braun 1 Reply Last reply Reply Quote 0
                  • Thomas Braun
                    Thomas Braun Most Active @MartinP last edited by

                    @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

                    load average: 47.30, 48.30, 49.00

                    Da geht es eher drum. Wobei so eine Load auf 'Haushaltsware' auch eher unrealistisch ist.

                    MartinP 1 Reply Last reply Reply Quote 0
                    • MartinP
                      MartinP @Thomas Braun last edited by MartinP

                      @thomas-braun Ist eine ziemlich lahme Kiste, ein Celeron N3000 spielt etwa in der Liga eines Pi4 ...

                      Proxmox selber zeigt etwas niedrigere "Fieberkurven" für den LXC-Container

                      0a1fc40b-e528-47a0-861b-19f678c8e87b-grafik.png

                      Kann es sein, dass bei einem LXC-Container da falsch angezeigt wird - das wird im PVE selber angezeigt:

                      87dc531c-6efd-4c76-b6a7-31cc6dca5d49-grafik.png

                      EDIT: Das sind die gehosteten VMs / LXC
                      dcc50f3a-19f4-4bf8-914c-54730bad78bd-grafik.png

                      MartinP 1 Reply Last reply Reply Quote 0
                      • MartinP
                        MartinP @MartinP last edited by

                        Schade, die Zigbee2mqtt VM scheint das Zeitliche gesegnet zu haben - sieht gestartet aus, ist aber per IP nicht erreichbar...

                        Homoran 1 Reply Last reply Reply Quote 0
                        • Homoran
                          Homoran Global Moderator Administrators @MartinP last edited by Homoran

                          @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

                          Proxmox selber zeigt etwas niedrigere "Fieberkurven" für den LXC-Container

                          naja, über 2 oder 4 (je nach CPU) sollte der Wert nicht liegen

                          MartinP 1 Reply Last reply Reply Quote 0
                          • MartinP
                            MartinP @Homoran last edited by

                            @homoran said in Adapter-Updates über die Weboberfläche ausgegraut ...:

                            naja, über 2 oder 4 (je nach CPU) sollte der Wert nicht liegen

                            Sind das keine Prozentwerte?

                            Der Celeron N3000 hat eben je nach Benchmark nur etwa 1/5 ... 1/10 der Performance eines Intel N100 ...

                            da werden aus 2...4 auf dem N100 eben 10...40%....

                            Der LXC-Container selber scheint sich auch die prognostizierten 10 ... 40% zu gönnen 🙂

                            89c8672a-5241-470e-97d5-0020bce0863b-grafik.png

                            Homoran 1 Reply Last reply Reply Quote 0
                            • Homoran
                              Homoran Global Moderator Administrators @MartinP last edited by Homoran

                              @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

                              Sind das keine Prozentwerte?

                              Normalerweise nicht.
                              die load average ist nicht %CPU

                              Bei der load average sollte der Wert nicht die Anzahl der Kerne überschreiten.
                              Ab da ist Abarbeitungsrückstau.

                              EDIT: Was du da zeigst ist tatsächlich %CPU!
                              iob diag zeigt aber die load average der letzten, der letzten 5 und der letzten 15 Minuten an

                              MartinP 1 Reply Last reply Reply Quote 0
                              • MartinP
                                MartinP @Homoran last edited by MartinP

                                @homoran Ja, der Wert ist SEHR hoch ....

                                https://wiki.ubuntuusers.de/uptime/

                                Zwei Kerne -> nicht viel höher als 2 wäre das Ziel ...

                                Vielleicht schlage ich dann doch mal zu, wenn irgendwann ein Hardware "Schnapper" vor die Flinte kommt ...
                                Entweder ein gebrauchter sparsamer i5 oder ein N100 ...

                                Das ist aus dem PVE Hauptfenster und DEFINITIV dieser "Load Avg." Wert und keine Prozente... dauerhaft auf 45 ...50 ...

                                4255a30c-0844-4965-b31b-f71541816ecf-grafik.png

                                Homoran 1 Reply Last reply Reply Quote 0
                                • Homoran
                                  Homoran Global Moderator Administrators @MartinP last edited by

                                  @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

                                  Das ist aus dem PVE Hauptfenster und DEFINITIV dieser "Load Avg." Wert und keine Prozente... dauerhaft auf 45 ...50 ...

                                  ich tippe da aber auf eine Fehlanzeige/Softwareproblem.
                                  Bei 2 Kernen würdest du wahrscheinlich bei einer Load von 5 schon nicht mehr auf den Server kommen.

                                  MartinP 1 Reply Last reply Reply Quote 0
                                  • MartinP
                                    MartinP @Homoran last edited by

                                    Würde ich auch vermuten...

                                    Die Wuppdizität der iobroker Oberfläche und der VIS-Fenster ist sicherlich nicht die beste, aber ich sitze beruflich sehr viel auf Rechnern per remote Session, und bin das eigentlich gewöhnt 😉

                                    Meinem Spieltrieb werde ich aber ggfs trotzdem Einhalt gebieten - keine weiteren LXC-Container auf die arme Kiste 😉

                                    MartinP 1 Reply Last reply Reply Quote 0
                                    • MartinP
                                      MartinP @MartinP last edited by MartinP

                                      Noch ein wenig Lesefutter

                                      https://www.suse.com/support/kb/doc/?id=000016923

                                      The vmstat command's "r" column under "procs" shows the current number of processes waiting to get on the run queue at a given instant in time. The uptime command shows the average number of processes on the run queue and waiting to get on the run queue in the last one, five and fifteen minutes. In the example above, the load averages indicate the server is getting busier, because the average processes in the last minute is higher than the fifteen minute average.

                                      root@pve:~# vmstat 1 4
                                      procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
                                       r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
                                       4  0 2030592 837036 907484 2304212    3    3   114   151 2022 2108 25 20 51  1  0
                                       1  0 2030592 837036 907484 2304212    0    0   768    88 3643 3739 31 41 28  1  0
                                       1  0 2030592 837036 907484 2304212    0    0     0   140 2910 2883 16 13 71  1  0
                                       2  0 2030592 837036 907484 2304212    0    0     0   288 3291 3201 19 23 57  2  0
                                      

                                      Hier noch zum Vergleich die Werte vom Linux Mint PC mit Cinnamon Desktop ...

                                      martin@martin-D2836-S1:~$ uptime
                                       19:36:58 up 10 days, 10:23,  1 user,  load average: 0,61, 0,15, 0,05
                                      martin@martin-D2836-S1:~$ vmstat 1 4
                                      Prozesse -----------Speicher---------- ---Auslagerung-- -----E/A---- -System-- ------CPU-----
                                       r  b   swpd   frei   buff  Cache   si   so    bi    bo   in   cs US SY ID WA st
                                       0  0 1981436 730472 1574332 1412080    0    1    23    27    2    4  1  1 98  0  0
                                       0  0 1981436 730724 1574332 1412140    0    0     0     0 2377 4077  2  1 98  0  0
                                       0  0 1981436 730724 1574332 1412140    0    0     0     0 3073 5397  1  1 99  0  0
                                       1  0 1981436 730724 1574332 1412140    0    0     0     0 2337 3928  2  1 98  0  0
                                      martin@martin-D2836-S1:~$ 
                                      
                                      
                                      
                                      1 Reply Last reply Reply Quote 0
                                      • First post
                                        Last post

                                      Support us

                                      ioBroker
                                      Community Adapters
                                      Donate
                                      FAQ Cloud / IOT
                                      HowTo: Node.js-Update
                                      HowTo: Backup/Restore
                                      Downloads
                                      BLOG

                                      685
                                      Online

                                      31.6k
                                      Users

                                      79.5k
                                      Topics

                                      1.3m
                                      Posts

                                      6
                                      27
                                      509
                                      Loading More Posts
                                      • Oldest to Newest
                                      • Newest to Oldest
                                      • Most Votes
                                      Reply
                                      • Reply as topic
                                      Log in to reply
                                      Community
                                      Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                                      The ioBroker Community 2014-2023
                                      logo