Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. ioBroker Allgemein
    4. Adapter-Updates über die Weboberfläche ausgegraut ...

    NEWS

    • [erledigt] 15. 05. Wartungsarbeiten am ioBroker Forum

    • ioBroker goes Matter ... Matter Adapter in Stable

    • Monatsrückblick - April 2025

    Adapter-Updates über die Weboberfläche ausgegraut ...

    This topic has been deleted. Only users with topic management privileges can see it.
    • Thomas Braun
      Thomas Braun Most Active @MartinP last edited by

      @martinp

      Und die ganzen Meldungen/Testfelder aus

      iob diag
      

      sind auch wieder wie erwartet?

      MartinP 1 Reply Last reply Reply Quote 0
      • MartinP
        MartinP @Thomas Braun last edited by MartinP

        @thomas-braun

        Nach Quer gucken sieht das gut aus ... (bis auf die MQTT Adapter Probleme)

        Skript v.2024-05-22
        
        *** BASE SYSTEM ***
         Static hostname: iobroker-test-sicher
               Icon name: computer-container
                 Chassis: container ☐
          Virtualization: lxc
        Operating System: Debian GNU/Linux 12 (bookworm)
                  Kernel: Linux 6.8.12-1-pve
            Architecture: x86-64
        
        model name      : Intel(R) Celeron(R) CPU  N3000  @ 1.04GHz
        Docker          : false
        Virtualization  : lxc
        Kernel          : x86_64
        Userland        : 64 bit
        
        Systemuptime and Load:
         14:00:14 up 11 min,  2 users,  load average: 50.09, 49.87, 49.65
        CPU threads: 2
        
        
        *** Time and Time Zones ***
                       Local time: Mon 2024-09-16 14:00:14 CEST
                   Universal time: Mon 2024-09-16 12:00:14 UTC
                         RTC time: n/a
                        Time zone: Europe/Berlin (CEST, +0200)
        System clock synchronized: yes
                      NTP service: inactive
                  RTC in local TZ: no
        
        *** Users and Groups ***
        User that called 'iob diag':
        martin
        HOME=/home/martin
        GROUPS=martin sudo iobroker
        
        User that is running 'js-controller':
        iobroker
        HOME=/home/iobroker
        GROUPS=iobroker tty dialout audio video plugdev
        
        *** Display-Server-Setup ***
        Display-Server: false
        Desktop: 
        Terminal: 
        Boot Target:    graphical.target
        
        *** MEMORY ***
                       total        used        free      shared  buff/cache   available
        Mem:            6.4G        2.0G        3.7G        118K        808M        4.5G
        Swap:           6.4G          0B        6.4G
        Total:           12G        2.0G         10G
        
        Active iob-Instances:   23
        
                 6144 M total memory
                 1872 M used memory
                 2145 M active memory
                  394 M inactive memory
                 3500 M free memory
                    0 M buffer memory
                  771 M swap cache
                 6144 M total swap
                    0 M used swap
                 6144 M free swap
        
        *** top - Table Of Processes  ***
        top - 14:00:14 up 11 min,  2 users,  load average: 50.09, 49.87, 49.65
        Tasks:  50 total,   1 running,  49 sleeping,   0 stopped,   0 zombie
        %Cpu(s): 25.0 us, 25.0 sy,  0.0 ni, 50.0 id,  0.0 wa,  0.0 hi,  0.0 si,  0.0 st 
        MiB Mem :   6144.0 total,   3498.8 free,   1874.1 used,    771.3 buff/cache     
        MiB Swap:   6144.0 total,   6144.0 free,      0.0 used.   4269.9 avail Mem 
        
        *** FAILED SERVICES ***
        
          UNIT                                 LOAD   ACTIVE SUB    DESCRIPTION
        * run-rpc_pipefs.mount                 loaded failed failed RPC Pipe File System
        * sys-kernel-config.mount              loaded failed failed Kernel Configuration File System
        * systemd-networkd-wait-online.service loaded failed failed Wait for Network to be Configured
        
        LOAD   = Reflects whether the unit definition was properly loaded.
        ACTIVE = The high-level unit activation state, i.e. generalization of SUB.
        SUB    = The low-level unit activation state, values depend on unit type.
        3 loaded units listed.
        
        *** FILESYSTEM ***
        Filesystem                       Type      Size  Used Avail Use% Mounted on
        /dev/mapper/pve-vm--101--disk--0 ext4       63G   20G   40G  33% /
        none                             tmpfs     492K  4.0K  488K   1% /dev
        udev                             devtmpfs  3.8G     0  3.8G   0% /dev/tty
        tmpfs                            tmpfs     3.9G     0  3.9G   0% /dev/shm
        tmpfs                            tmpfs     1.6G  112K  1.6G   1% /run
        tmpfs                            tmpfs     5.0M     0  5.0M   0% /run/lock
        
        Messages concerning ext4 filesystem in dmesg:
        dmesg: read kernel buffer failed: Operation not permitted
        
        Show mounted filesystems:
        TARGET                                                  SOURCE                           FSTYPE     OPTIONS
        /                                                       /dev/mapper/pve-vm--101--disk--0 ext4       rw,relatime,stripe=16
        |-/run                                                  tmpfs                            tmpfs      rw,nosuid,nodev,size=1595988k,nr_inodes=819200,mode=755,uid=100000,gid=100000,inode64
        | |-/run/lock                                           tmpfs                            tmpfs      rw,nosuid,nodev,noexec,relatime,size=5120k,uid=100000,gid=100000,inode64
        | |-/run/credentials/systemd-tmpfiles-setup-dev.service ramfs                            ramfs      ro,nosuid,nodev,noexec,relatime,mode=700
        | |-/run/credentials/systemd-tmpfiles-setup.service     ramfs                            ramfs      ro,nosuid,nodev,noexec,relatime,mode=700
        | |-/run/credentials/systemd-sysctl.service             ramfs                            ramfs      ro,nosuid,nodev,noexec,relatime,mode=700
        | `-/run/credentials/systemd-sysusers.service           ramfs                            ramfs      ro,nosuid,nodev,noexec,relatime,mode=700
        |-/dev                                                  none                             tmpfs      rw,relatime,size=492k,mode=755,uid=100000,gid=100000,inode64
        | |-/dev/shm                                            tmpfs                            tmpfs      rw,nosuid,nodev,uid=100000,gid=100000,inode64
        | |-/dev/mqueue                                         mqueue                           mqueue     rw,nosuid,nodev,noexec,relatime
        | |-/dev/.lxc/proc                                      proc                             proc       rw,relatime
        | |-/dev/.lxc/sys                                       sys                              sysfs      rw,relatime
        | |-/dev/full                                           udev[/full]                      devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
        | |-/dev/null                                           udev[/null]                      devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
        | |-/dev/random                                         udev[/random]                    devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
        | |-/dev/tty                                            udev[/tty]                       devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
        | |-/dev/urandom                                        udev[/urandom]                   devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
        | |-/dev/zero                                           udev[/zero]                      devtmpfs   rw,nosuid,relatime,size=3956668k,nr_inodes=989167,mode=755,inode64
        | |-/dev/pts                                            devpts                           devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
        | |-/dev/ptmx                                           devpts[/ptmx]                    devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
        | |-/dev/console                                        devpts[/0]                       devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
        | |-/dev/tty1                                           devpts[/1]                       devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
        | `-/dev/tty2                                           devpts[/2]                       devpts     rw,nosuid,noexec,relatime,gid=100005,mode=620,ptmxmode=666,max=1026
        |-/proc                                                 proc                             proc       rw,nosuid,nodev,noexec,relatime
        | |-/proc/sys                                           proc[/sys]                       proc       ro,relatime
        | | |-/proc/sys/net                                     proc[/sys/net]                   proc       rw,nosuid,nodev,noexec,relatime
        | | `-/proc/sys/kernel/random/boot_id                   none[/.lxc-boot-id]              tmpfs      ro,nosuid,nodev,noexec,relatime,size=492k,mode=755,uid=100000,gid=100000,inode64
        | |-/proc/sysrq-trigger                                 proc[/sysrq-trigger]             proc       ro,relatime
        | |-/proc/cpuinfo                                       lxcfs[/proc/cpuinfo]             fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
        | |-/proc/diskstats                                     lxcfs[/proc/diskstats]           fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
        | |-/proc/loadavg                                       lxcfs[/proc/loadavg]             fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
        | |-/proc/meminfo                                       lxcfs[/proc/meminfo]             fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
        | |-/proc/slabinfo                                      lxcfs[/proc/slabinfo]            fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
        | |-/proc/stat                                          lxcfs[/proc/stat]                fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
        | |-/proc/swaps                                         lxcfs[/proc/swaps]               fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
        | `-/proc/uptime                                        lxcfs[/proc/uptime]              fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
        `-/sys                                                  sysfs                            sysfs      ro,nosuid,nodev,noexec,relatime
          |-/sys/fs/fuse/connections                            fusectl                          fusectl    rw,nosuid,nodev,noexec,relatime
          |-/sys/devices/virtual/net                            sysfs[/devices/virtual/net]      sysfs      rw,nosuid,nodev,noexec,relatime
          |-/sys/fs/cgroup                                      none                             cgroup2    rw,nosuid,nodev,noexec,relatime
          `-/sys/devices/system/cpu                             lxcfs[/sys/devices/system/cpu]   fuse.lxcfs rw,nosuid,nodev,relatime,user_id=0,group_id=0,allow_other
        
        Files in neuralgic directories:
        
        /var:
        3.9G    /var/
        2.1G    /var/lib
        1.9G    /var/lib/influxdb/engine/data/f11825691705bf53/autogen
        1.9G    /var/lib/influxdb/engine/data/f11825691705bf53
        1.9G    /var/lib/influxdb/engine/data
        
        Hint: You are currently not seeing messages from other users and the system.
              Users in groups 'adm', 'systemd-journal' can see all messages.
              Pass -q to turn off this notice.
        Archived and active journals take up 144.8M in the file system.
        
        /opt/iobroker/backups:
        9.1G    /opt/iobroker/backups/
        
        /opt/iobroker/iobroker-data:
        827M    /opt/iobroker/iobroker-data/
        710M    /opt/iobroker/iobroker-data/files
        441M    /opt/iobroker/iobroker-data/files/javascript.admin
        409M    /opt/iobroker/iobroker-data/files/javascript.admin/static
        408M    /opt/iobroker/iobroker-data/files/javascript.admin/static/js
        
        The five largest files in iobroker-data are:
        24M     /opt/iobroker/iobroker-data/files/web.admin/static/js/main.135279a0.js.map
        19M     /opt/iobroker/iobroker-data/files/vis-2/static/js/main.e7bb655f.js.map
        19M     /opt/iobroker/iobroker-data/files/vis-2/static/js/main.368dc292.js.map
        19M     /opt/iobroker/iobroker-data/files/vis-2/customWidgets.js.map
        15M     /opt/iobroker/iobroker-data/files/vis-2/static/js/376.1862d3de.chunk.js.map
        
        USB-Devices by-id:
        USB-Sticks -  Avoid direct links to /dev/tty* in your adapter setups, please always prefer the links 'by-id':
        
        No Devices found 'by-id'
        
        
        
        
        *** NodeJS-Installation ***
        
        /usr/bin/nodejs         v20.17.0
        /usr/bin/node           v20.17.0
        /usr/bin/npm            10.8.2
        /usr/bin/npx            10.8.2
        /usr/bin/corepack       0.29.3
        
        
        nodejs:
          Installed: 20.17.0-1nodesource1
          Candidate: 20.17.0-1nodesource1
          Version table:
         *** 20.17.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
                100 /var/lib/dpkg/status
             20.16.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.15.1-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.15.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.14.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.13.1-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.13.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.12.2-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.12.1-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.12.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.11.1-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.11.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.10.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.9.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.8.1-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.8.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.7.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.6.1-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.6.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.5.1-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.5.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.4.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.3.1-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.3.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.2.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.1.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             20.0.0-1nodesource1 1001
                500 https://deb.nodesource.com/node_20.x nodistro/main amd64 Packages
             18.19.0+dfsg-6~deb12u2 500
                500 http://ftp.debian.org/debian bookworm/main amd64 Packages
             18.19.0+dfsg-6~deb12u1 500
                500 http://security.debian.org bookworm-security/main amd64 Packages
        
        Temp directories causing npm8 problem: 0
        No problems detected
        
        Errors in npm tree:
        
        *** ioBroker-Installation ***
        
        ioBroker Status
        iobroker is running on this host.
        
        
        Objects type: jsonl
        States  type: jsonl
        
        Core adapters versions
        js-controller:  6.0.11
        admin:          7.0.23
        javascript:     8.7.6
        
        nodejs modules from github:     0
        
        Adapter State
        + system.adapter.admin.0                  : admin                 : iobroker-test-sicher                     -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
          system.adapter.alias-manager.0          : alias-manager         : iobroker-test-sicher                     -  enabled
        + system.adapter.backitup.0               : backitup              : iobroker-test-sicher                     -  enabled
        + system.adapter.discovery.0              : discovery             : iobroker-test-sicher                     -  enabled
        + system.adapter.email.0                  : email                 : iobroker-test-sicher                     -  enabled
          system.adapter.fahrplan.0               : fahrplan              : iobroker-test-sicher                     - disabled
        + system.adapter.fb-checkpresence.0       : fb-checkpresence      : iobroker-test-sicher                     -  enabled
          system.adapter.frigate.0                : frigate               : iobroker-test-sicher                     - disabled
        + system.adapter.fritzdect.0              : fritzdect             : iobroker-test-sicher                     -  enabled
          system.adapter.ical.0                   : ical                  : iobroker-test-sicher                     -  enabled
          system.adapter.ical.1                   : ical                  : iobroker-test-sicher                     -  enabled
        + system.adapter.influxdb.0               : influxdb              : iobroker-test-sicher                     -  enabled, port: 8086
        + system.adapter.javascript.0             : javascript            : iobroker-test-sicher                     -  enabled
        + system.adapter.javascript.1             : javascript            : iobroker-test-sicher                     -  enabled
        + system.adapter.meross.0                 : meross                : iobroker-test-sicher                     -  enabled
        + system.adapter.mqtt-client.0            : mqtt-client           : iobroker-test-sicher                     -  enabled, port: 1888
          system.adapter.mqtt-client.1            : mqtt-client           : iobroker-test-sicher                     - disabled, port: 1883
        + system.adapter.mqtt.0                   : mqtt                  : iobroker-test-sicher                     -  enabled, port: 1888, bind: 0.0.0.0
          system.adapter.mqtt.1                   : mqtt                  : iobroker-test-sicher                     - disabled, port: 1883, bind: 0.0.0.0
        + system.adapter.operating-hours.0        : operating-hours       : iobroker-test-sicher                     -  enabled
        + system.adapter.ping.0                   : ping                  : iobroker-test-sicher                     -  enabled
        + system.adapter.reolink.0                : reolink               : iobroker-test-sicher                     -  enabled
        + system.adapter.reolink.1                : reolink               : iobroker-test-sicher                     -  enabled
        + system.adapter.simple-api.0             : simple-api            : iobroker-test-sicher                     -  enabled, port: 8087, bind: 0.0.0.0, run as: admin
        + system.adapter.snmp.0                   : snmp                  : iobroker-test-sicher                     -  enabled
        + system.adapter.sonoff.0                 : sonoff                : iobroker-test-sicher                     -  enabled, port: 1892, bind: 0.0.0.0
        + system.adapter.tradfri.0                : tradfri               : iobroker-test-sicher                     -  enabled
        + system.adapter.vis-2.0                  : vis-2                 : iobroker-test-sicher                     -  enabled
          system.adapter.vis.0                    : vis                   : iobroker-test-sicher                     -  enabled
        + system.adapter.web.0                    : web                   : iobroker-test-sicher                     -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
        
        + instance is alive
        
        Enabled adapters with bindings
        + system.adapter.admin.0                  : admin                 : iobroker-test-sicher                     -  enabled, port: 8081, bind: 0.0.0.0, run as: admin
        + system.adapter.influxdb.0               : influxdb              : iobroker-test-sicher                     -  enabled, port: 8086
        + system.adapter.mqtt-client.0            : mqtt-client           : iobroker-test-sicher                     -  enabled, port: 1888
        + system.adapter.mqtt.0                   : mqtt                  : iobroker-test-sicher                     -  enabled, port: 1888, bind: 0.0.0.0
        + system.adapter.simple-api.0             : simple-api            : iobroker-test-sicher                     -  enabled, port: 8087, bind: 0.0.0.0, run as: admin
        + system.adapter.sonoff.0                 : sonoff                : iobroker-test-sicher                     -  enabled, port: 1892, bind: 0.0.0.0
        + system.adapter.web.0                    : web                   : iobroker-test-sicher                     -  enabled, port: 8082, bind: 0.0.0.0, run as: admin
        
        ioBroker-Repositories
        ┌─────────┬──────────┬─────────────────────────────────────────────────────────┬──────────────┐
        │ (index) │ name     │ url                                                     │ auto upgrade │
        ├─────────┼──────────┼─────────────────────────────────────────────────────────┼──────────────┤
        │ 0       │ 'stable' │ 'http://download.iobroker.net/sources-dist.json'        │ false        │
        │ 1       │ 'beta'   │ 'http://download.iobroker.net/sources-dist-latest.json' │ false        │
        └─────────┴──────────┴─────────────────────────────────────────────────────────┴──────────────┘
        
        Active repo(s): stable
        Upgrade policy: none
        
        Installed ioBroker-Instances
        Used repository: stable
        Adapter    "admin"        : 7.0.23   , installed 7.0.23
        Adapter    "alias-manager": 1.2.6    , installed 1.2.6
        Adapter    "backitup"     : 3.0.22   , installed 3.0.22
        Adapter    "benchmark"    : 1.3.0    , installed 1.3.0
        Adapter    "deconz"       : 1.4.1    , installed 1.4.1
        Adapter    "discovery"    : 4.5.0    , installed 4.5.0
        Adapter    "email"        : 1.3.1    , installed 1.3.1
        Adapter    "fahrplan"     : 1.2.3    , installed 1.2.3
        Adapter    "fb-checkpresence": 1.2.4 , installed 1.2.4
        Adapter    "frigate"      : 1.2.0    , installed 1.2.1
        Adapter    "fritzdect"    : 2.5.11   , installed 2.5.11
        Adapter    "ical"         : 1.15.0   , installed 1.15.0
        Adapter    "influxdb"     : 4.0.2    , installed 4.0.2
        Adapter    "jarvis"       : 3.1.8    , installed 3.1.8
        Adapter    "javascript"   : 8.7.6    , installed 8.7.6
        Controller "js-controller": 6.0.11   , installed 6.0.11
        Adapter    "meross"       : 1.17.0   , installed 1.17.0
        Adapter    "mqtt"         : 5.2.0    , installed 5.2.0
        Adapter    "mqtt-client"  : 2.0.0    , installed 2.0.0
        Adapter    "operating-hours": 1.1.0  , installed 1.1.0
        Adapter    "ping"         : 1.6.2    , installed 1.6.2
        Adapter    "reolink"      : 1.1.1    , installed 1.1.1
        Adapter    "simple-api"   : 2.8.0    , installed 2.8.0
        Adapter    "smartmeter"   : 3.4.0    , installed 3.4.0
        Adapter    "snmp"         : 3.2.0    , installed 3.2.0
        Adapter    "socketio"     : 6.7.1    , installed 6.7.1
        Adapter    "sonoff"       : 3.1.0    , installed 3.1.0
        Adapter    "tr-064"       : 4.3.0    , installed 4.3.0
        Adapter    "tradfri"      : 3.1.3    , installed 3.1.3
        Adapter    "vis"          : 1.5.6    , installed 1.5.6
        Adapter    "vis-2"        : 2.9.32   , installed 2.9.32
        Adapter    "web"          : 6.2.5    , installed 6.2.5
        Adapter    "ws"           : 2.6.2    , installed 2.6.2
        Adapter    "zigbee2mqtt"  : 2.13.6   , installed 2.13.6
        
        Objects and States
        Please stand by - This may take a while
        Objects:        2779
        States:         2351
        
        *** OS-Repositories and Updates ***
        Hit:1 http://ftp.debian.org/debian bookworm InRelease
        Hit:2 http://ftp.debian.org/debian bookworm-updates InRelease
        Hit:3 http://security.debian.org bookworm-security InRelease
        Hit:4 https://repos.influxdata.com/debian stable InRelease
        Hit:5 https://apt.grafana.com stable InRelease
        Hit:6 https://deb.nodesource.com/node_20.x nodistro InRelease
        Reading package lists...
        Pending Updates: 0
        
        *** Listening Ports ***
        Active Internet connections (only servers)
        Proto Recv-Q Send-Q Local Address           Foreign Address         State       User       Inode      PID/Program name    
        tcp        0      0 0.0.0.0:111             0.0.0.0:*               LISTEN      0          108794370  1/init              
        tcp        0      0 0.0.0.0:1892            0.0.0.0:*               LISTEN      1001       108813845  525/io.sonoff.0     
        tcp        0      0 0.0.0.0:1888            0.0.0.0:*               LISTEN      1001       108812050  498/io.mqtt.0       
        tcp        0      0 127.0.0.1:25            0.0.0.0:*               LISTEN      0          108803046  348/master          
        tcp        0      0 127.0.0.1:9000          0.0.0.0:*               LISTEN      1001       108805140  368/iobroker.js-con 
        tcp        0      0 127.0.0.1:9001          0.0.0.0:*               LISTEN      1001       108805058  368/iobroker.js-con 
        tcp6       0      0 :::111                  :::*                    LISTEN      0          108794372  1/init              
        tcp6       0      0 :::22                   :::*                    LISTEN      0          108794682  1/init              
        tcp6       0      0 ::1:25                  :::*                    LISTEN      0          108803047  348/master          
        tcp6       0      0 :::3000                 :::*                    LISTEN      109        108804726  367/grafana         
        tcp6       0      0 :::8087                 :::*                    LISTEN      1001       108816478  687/io.simple-api.0 
        tcp6       0      0 :::8086                 :::*                    LISTEN      998        108803748  172/influxd         
        tcp6       0      0 :::8081                 :::*                    LISTEN      1001       108805796  417/io.admin.0      
        tcp6       0      0 :::8082                 :::*                    LISTEN      1001       108816757  669/io.web.0        
        udp        0      0 0.0.0.0:46184           0.0.0.0:*                           1001       108815704  676/io.tradfri.0    
        udp        0      0 0.0.0.0:40879           0.0.0.0:*                           1001       108815883  587/io.snmp.0       
        udp        0      0 0.0.0.0:111             0.0.0.0:*                           0          108794371  1/init              
        udp6       0      0 :::111                  :::*                                0          108794373  1/init              
        
        *** Log File - Last 25 Lines ***
        
        2024-09-16 13:59:42.757  - info: admin.0 (417) ==> Connected system.user.admin from ::ffff:192.168.2.115
        2024-09-16 13:59:45.755  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 4 deleted after 12 retries
        2024-09-16 13:59:45.755  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 3 deleted after 12 retries
        2024-09-16 14:00:00.074  - info: host.iobroker-test-sicher instance system.adapter.ical.0 in version "1.15.0" started with pid 1500
        2024-09-16 14:00:00.226  - info: javascript.0 (455) script.js.Energiezaehler.Gaszaehler: Actual Pulses 137474 Last Pulses 137469 =0.557
        2024-09-16 14:00:06.909  - info: ical.0 (1500) starting. Version 1.15.0 in /opt/iobroker/node_modules/iobroker.ical, node: v20.17.0, js-controller: 6.0.11
        2024-09-16 14:00:09.415  - info: ical.0 (1500) processing URL: Martin_docker http://192.168.2.146:5232/martin/e4c584bc-2ea6-bae6-1d4e-debe6a702f21/
        2024-09-16 14:00:09.776  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:00:14.925  - info: ical.0 (1500) Terminated (NO_ERROR): Without reason
        2024-09-16 14:00:15.529  - info: host.iobroker-test-sicher instance system.adapter.ical.0 having pid 1500 terminated with code 0 (NO_ERROR)
        2024-09-16 14:00:15.781  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:00:17.792  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:00:19.783  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:00:21.782  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:00:22.567  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] connection closed: closed
        2024-09-16 14:00:31.955  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] connected with secret 1726488031944_3480
        2024-09-16 14:00:31.974  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] Received pubrec on esp32-e0624b304ec0 for unknown messageId 1
        2024-09-16 14:00:59.831  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:01:05.833  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:01:09.833  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:01:11.835  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:01:11.836  - warn: mqtt.0 (498) Client [esp32-e0624b304ec0] Message 5 deleted after 11 retries
        2024-09-16 14:01:12.577  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] connection closed: closed
        2024-09-16 14:01:21.946  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] connected with secret 1726488081946_210
        2024-09-16 14:01:21.953  - info: mqtt.0 (498) Client [esp32-e0624b304ec0] Received pubrec on esp32-e0624b304ec0 for unknown messageId 1
        
        
        Ro75 1 Reply Last reply Reply Quote 0
        • Ro75
          Ro75 @MartinP last edited by

          @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

          14:00:14 up 11 min, 2 users, load average: 50.09, 49.87, 49.65

          wirklich?

          Ro75.

          MartinP 1 Reply Last reply Reply Quote 1
          • MartinP
            MartinP @Ro75 last edited by MartinP

            @ro75 Ist ein LXC-Container, habe nicht PVE rebootet, sondern nur den Container über die PVE Weboberfläche.... die Weboberfläche von iob war jedenfalls nicht erreichbar 😉

            EDIT ich sehe da 11 Minuten uptime ...

            14:10:46 up 22 min,  1 user,  load average: 47.30, 48.30, 49.00
            

            Der erste Wert ist wohl die aktuelle Uhrzeit

            Thomas Braun 1 Reply Last reply Reply Quote 0
            • Thomas Braun
              Thomas Braun Most Active @MartinP last edited by

              @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

              load average: 47.30, 48.30, 49.00

              Da geht es eher drum. Wobei so eine Load auf 'Haushaltsware' auch eher unrealistisch ist.

              MartinP 1 Reply Last reply Reply Quote 0
              • MartinP
                MartinP @Thomas Braun last edited by MartinP

                @thomas-braun Ist eine ziemlich lahme Kiste, ein Celeron N3000 spielt etwa in der Liga eines Pi4 ...

                Proxmox selber zeigt etwas niedrigere "Fieberkurven" für den LXC-Container

                0a1fc40b-e528-47a0-861b-19f678c8e87b-grafik.png

                Kann es sein, dass bei einem LXC-Container da falsch angezeigt wird - das wird im PVE selber angezeigt:

                87dc531c-6efd-4c76-b6a7-31cc6dca5d49-grafik.png

                EDIT: Das sind die gehosteten VMs / LXC
                dcc50f3a-19f4-4bf8-914c-54730bad78bd-grafik.png

                MartinP 1 Reply Last reply Reply Quote 0
                • MartinP
                  MartinP @MartinP last edited by

                  Schade, die Zigbee2mqtt VM scheint das Zeitliche gesegnet zu haben - sieht gestartet aus, ist aber per IP nicht erreichbar...

                  Homoran 1 Reply Last reply Reply Quote 0
                  • Homoran
                    Homoran Global Moderator Administrators @MartinP last edited by Homoran

                    @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

                    Proxmox selber zeigt etwas niedrigere "Fieberkurven" für den LXC-Container

                    naja, über 2 oder 4 (je nach CPU) sollte der Wert nicht liegen

                    MartinP 1 Reply Last reply Reply Quote 0
                    • MartinP
                      MartinP @Homoran last edited by

                      @homoran said in Adapter-Updates über die Weboberfläche ausgegraut ...:

                      naja, über 2 oder 4 (je nach CPU) sollte der Wert nicht liegen

                      Sind das keine Prozentwerte?

                      Der Celeron N3000 hat eben je nach Benchmark nur etwa 1/5 ... 1/10 der Performance eines Intel N100 ...

                      da werden aus 2...4 auf dem N100 eben 10...40%....

                      Der LXC-Container selber scheint sich auch die prognostizierten 10 ... 40% zu gönnen 🙂

                      89c8672a-5241-470e-97d5-0020bce0863b-grafik.png

                      Homoran 1 Reply Last reply Reply Quote 0
                      • Homoran
                        Homoran Global Moderator Administrators @MartinP last edited by Homoran

                        @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

                        Sind das keine Prozentwerte?

                        Normalerweise nicht.
                        die load average ist nicht %CPU

                        Bei der load average sollte der Wert nicht die Anzahl der Kerne überschreiten.
                        Ab da ist Abarbeitungsrückstau.

                        EDIT: Was du da zeigst ist tatsächlich %CPU!
                        iob diag zeigt aber die load average der letzten, der letzten 5 und der letzten 15 Minuten an

                        MartinP 1 Reply Last reply Reply Quote 0
                        • MartinP
                          MartinP @Homoran last edited by MartinP

                          @homoran Ja, der Wert ist SEHR hoch ....

                          https://wiki.ubuntuusers.de/uptime/

                          Zwei Kerne -> nicht viel höher als 2 wäre das Ziel ...

                          Vielleicht schlage ich dann doch mal zu, wenn irgendwann ein Hardware "Schnapper" vor die Flinte kommt ...
                          Entweder ein gebrauchter sparsamer i5 oder ein N100 ...

                          Das ist aus dem PVE Hauptfenster und DEFINITIV dieser "Load Avg." Wert und keine Prozente... dauerhaft auf 45 ...50 ...

                          4255a30c-0844-4965-b31b-f71541816ecf-grafik.png

                          Homoran 1 Reply Last reply Reply Quote 0
                          • Homoran
                            Homoran Global Moderator Administrators @MartinP last edited by

                            @martinp sagte in Adapter-Updates über die Weboberfläche ausgegraut ...:

                            Das ist aus dem PVE Hauptfenster und DEFINITIV dieser "Load Avg." Wert und keine Prozente... dauerhaft auf 45 ...50 ...

                            ich tippe da aber auf eine Fehlanzeige/Softwareproblem.
                            Bei 2 Kernen würdest du wahrscheinlich bei einer Load von 5 schon nicht mehr auf den Server kommen.

                            MartinP 1 Reply Last reply Reply Quote 0
                            • MartinP
                              MartinP @Homoran last edited by

                              Würde ich auch vermuten...

                              Die Wuppdizität der iobroker Oberfläche und der VIS-Fenster ist sicherlich nicht die beste, aber ich sitze beruflich sehr viel auf Rechnern per remote Session, und bin das eigentlich gewöhnt 😉

                              Meinem Spieltrieb werde ich aber ggfs trotzdem Einhalt gebieten - keine weiteren LXC-Container auf die arme Kiste 😉

                              MartinP 1 Reply Last reply Reply Quote 0
                              • MartinP
                                MartinP @MartinP last edited by MartinP

                                Noch ein wenig Lesefutter

                                https://www.suse.com/support/kb/doc/?id=000016923

                                The vmstat command's "r" column under "procs" shows the current number of processes waiting to get on the run queue at a given instant in time. The uptime command shows the average number of processes on the run queue and waiting to get on the run queue in the last one, five and fifteen minutes. In the example above, the load averages indicate the server is getting busier, because the average processes in the last minute is higher than the fifteen minute average.

                                root@pve:~# vmstat 1 4
                                procs -----------memory---------- ---swap-- -----io---- -system-- ------cpu-----
                                 r  b   swpd   free   buff  cache   si   so    bi    bo   in   cs us sy id wa st
                                 4  0 2030592 837036 907484 2304212    3    3   114   151 2022 2108 25 20 51  1  0
                                 1  0 2030592 837036 907484 2304212    0    0   768    88 3643 3739 31 41 28  1  0
                                 1  0 2030592 837036 907484 2304212    0    0     0   140 2910 2883 16 13 71  1  0
                                 2  0 2030592 837036 907484 2304212    0    0     0   288 3291 3201 19 23 57  2  0
                                

                                Hier noch zum Vergleich die Werte vom Linux Mint PC mit Cinnamon Desktop ...

                                martin@martin-D2836-S1:~$ uptime
                                 19:36:58 up 10 days, 10:23,  1 user,  load average: 0,61, 0,15, 0,05
                                martin@martin-D2836-S1:~$ vmstat 1 4
                                Prozesse -----------Speicher---------- ---Auslagerung-- -----E/A---- -System-- ------CPU-----
                                 r  b   swpd   frei   buff  Cache   si   so    bi    bo   in   cs US SY ID WA st
                                 0  0 1981436 730472 1574332 1412080    0    1    23    27    2    4  1  1 98  0  0
                                 0  0 1981436 730724 1574332 1412140    0    0     0     0 2377 4077  2  1 98  0  0
                                 0  0 1981436 730724 1574332 1412140    0    0     0     0 3073 5397  1  1 99  0  0
                                 1  0 1981436 730724 1574332 1412140    0    0     0     0 2337 3928  2  1 98  0  0
                                martin@martin-D2836-S1:~$ 
                                
                                
                                
                                1 Reply Last reply Reply Quote 0
                                • First post
                                  Last post

                                Support us

                                ioBroker
                                Community Adapters
                                Donate
                                FAQ Cloud / IOT
                                HowTo: Node.js-Update
                                HowTo: Backup/Restore
                                Downloads
                                BLOG

                                694
                                Online

                                31.6k
                                Users

                                79.5k
                                Topics

                                1.3m
                                Posts

                                6
                                27
                                509
                                Loading More Posts
                                • Oldest to Newest
                                • Newest to Oldest
                                • Most Votes
                                Reply
                                • Reply as topic
                                Log in to reply
                                Community
                                Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                                The ioBroker Community 2014-2023
                                logo