Navigation

    Logo
    • Register
    • Login
    • Search
    • Recent
    • Tags
    • Unread
    • Categories
    • Unreplied
    • Popular
    • GitHub
    • Docu
    • Hilfe
    1. Home
    2. Deutsch
    3. Tester
    4. Test Adapter AI Toolbox v0.1.3 GitHub/Latest

    NEWS

    • ioBroker@Smart Living Forum Solingen, 14.06. - Agenda added

    • ioBroker goes Matter ... Matter Adapter in Stable

    • Monatsrückblick - April 2025

    Test Adapter AI Toolbox v0.1.3 GitHub/Latest

    This topic has been deleted. Only users with topic management privileges can see it.
    • O
      oxident @oxident last edited by

      Spontan fällt mir direkt ein kleiner Verbesserungsvorschlag ein:
      Könnte man nicht die verfügbaren Modelle via API auslesen und zur Auswahl bereitstellen?

      Dann könnte man ihnen im Adapter auch z.B. Alias-Namen verpassen und es etwas übersichtlicher gestalten.

      1 Reply Last reply Reply Quote 0
      • O
        oxident last edited by

        @ToGe88 Werden die Beispielfragen/-antworten eigentlich auch an das LLM weitergegeben?

        David G. 1 Reply Last reply Reply Quote 0
        • David G.
          David G. @oxident last edited by

          @oxident

          Du hast jeweils den DP request.body.
          Der sieht Zb so aus. Ich denke, das ist alles was übermittelt wird.

          {"model":"meta-llama/llama-3.2-3b-instruct:free","max_tokens":2000,"temperature":0.6,"messages":[{"role":"user","content":"Wie viel ist 5+5?"}]}
          
          O 1 Reply Last reply Reply Quote 1
          • O
            oxident @David G. last edited by

            @david-g Ahh, ok. Dann ist das vermutlich eher als Gedankenstütze für den Anwender gedacht.

            Im Code auf Github sieht es jedoch so aus, als würde das irgendwie doch mit übergeben...

            Mich würde brennend interessieren, welche Modelle (für selbst gehostete LLMs) ihr so verwendet. Bisher habe ich mit "llama3-sauerkraut" schon gute Erfahrungen gemacht. Die Wortwahl hakt jedoch noch ein wenig.

            1 Reply Last reply Reply Quote 0
            • T
              ToGe88 Developer last edited by

              Danke für das Feedback!

              Ich habe gerade nochmal ein neues Release auf GitHub gepusht. Der Fehler mit OpenAI ist nun behoben und Requests sollten sauber laufen.

              Neues Feature:

              • Vision / Image Fähigkeiten: Es ist nun möglich Tools zu erstellen welche Bilder analysieren können @David-G

              @oxident Ja da ist durchaus Optimierungspotential bei der Usability 😅 Ich hatte die Idee mit dem Auslesen verworfen weil die APIs teilweise auch Modelle zurück liefern welche nicht für den Adapter geeignet sind. (z.B. Audio-Modelle etc.)

              Bei der Beispielfrage / Antwort gab es einen Bug in der ersten Version. Diese werden nun an den Anfang der Nachrichten gesetzt und immer mit übergeben um das Modell in die gewünschte Ausgabeform zu lenken falls der System Prompt nicht ausreicht.

              O 1 Reply Last reply Reply Quote 1
              • O
                oxident @ToGe88 last edited by

                @toge88 Super, danke, dass Du dranbleibst!
                Verstehe Dein Argument mit den Modellen auch sehr gut...

                Ich frage mich, ob der Adapter mittelfristig nicht sogar optional die Datenpunkte anderer Adapter mit übergeben könnte. Wäre doch toll, wenn die KI die "irgendwie" verstehen könnte.

                Beim HomeAssistant geht man doch, glaube ich, derzeit auch diesen Weg.

                1 Reply Last reply Reply Quote -1
                • T
                  ToGe88 Developer last edited by

                  In Version 0.0.7 gibt es nun auch die Möglichkeit lokale Pfade zu Bildern anzugeben (siehe Readme auf Github). Dies ermöglicht es z.B. direkt Bildanfragen vom Telegram Adapter von KI Tools verarbeiten bzw analysieren zu lassen.

                  @oxident Ich habe da noch einen zweiten Adapter in Entwicklung welcher eher in die Richtung geht als vollumfänglicher Assistent in ioBroker zu funktionieren. Den werde ich die Tage auch mal auf Github stellen zum testen. 😁

                  David G. O 2 Replies Last reply Reply Quote 2
                  • David G.
                    David G. @ToGe88 last edited by

                    @toge88 sagte in Test Adapter AI Toolbox v0.0.7 GitHub/Latest:

                    In Version 0.0.7 gibt es nun auch die Möglichkeit lokale Pfade zu Bildern anzugeben (siehe Readme auf Github). Dies ermöglicht es z.B. direkt Bildanfragen vom Telegram Adapter von KI Tools verarbeiten bzw analysieren zu lassen.

                    Klappt auch wunderbar um snapshots von der Überwachungskamera auszuwerten. Liegt ein Paket vor der Tür, steht ein Auto in der Einfahrt etc. Man kann den Bot ja so definieren, dass er bei Bedarf ein true oder false ausgibt.

                    1 Reply Last reply Reply Quote 0
                    • O
                      oxident @ToGe88 last edited by

                      @toge88 Sehr genial. Dann startet das neue Jahr definitiv spannend!

                      1 Reply Last reply Reply Quote 0
                      • David G.
                        David G. @ToGe88 last edited by

                        @toge88

                        Ich habe mal eine kleine Offtopic Frage.
                        Evtl hast du da ja schon mal was zu gelesen.

                        Weißt du, warum die Ergebnisse der Api zur Bildanalyse VIEL schlechter sind als über die Website bzw App direkt? Mit den Tokens die man einstellt hat es nichts zu tun.
                        Ich habe gelesen, dass bei der Api die Auflösung vom Bild angepasst wird vor der Analyse. Aber das macht der "normale" weg ja vermutlich auch....

                        T 1 Reply Last reply Reply Quote 0
                        • T
                          ToGe88 Developer @David G. last edited by

                          @david-g Ich habe noch nicht wirklich viel mit der Bilderkennung ausprobiert daher fehlen mir da ein wenig die Vergleichswerte. Ist das Verhalten denn bei allen Modellen gleich?

                          Der Adapter wandelt das Bild lediglich in einen Base64 String um und übergibt es an die jeweiligen Anbieter Schnittstelle, wenn es da eine Reduzierung der Auflösung gibt müsste das auf Anbieterseite passieren.

                          Ein Ansatz wäre vielleicht dem Modell einen gewissen "Freiraum" zum denken zu geben bei seiner Antwort. Damit konnte ich für Textausgaben zumindest die Qualität deutlich steigern. Ich löse dass so das ich das Werkzeug im Adapter Json ausgeben lasse und als erstes Attribut "reasoning" festlege. In diesen soll das Modell dann seinen Prozess schreiben wie es zu seinem Ergebnis gekommen ist. Bei der weiteren Verarbeitung verwerfe ich diesen Inhalt dann einfach und nutze nur die für mich relevanten Daten weiter.

                          Könnte sein dass es bei der Bildverarbeitung auch klappt.

                          David G. 1 Reply Last reply Reply Quote 0
                          • David G.
                            David G. @ToGe88 last edited by

                            @toge88
                            Habe hier glaube was gefunden.
                            https://www.ai-for-devs.com/blog/gpt-vision-learn-how-to-use-gpt-4-to-understand-images

                            Unter "Improving Image Fidelity: Low and High Resolution Image Understanding" steht ein wenig.

                            Das Modell entscheidet scheinbar selber, wenn man keine Qualität der Verarbeitung angibt.
                            Vermutlich ist er bei der Api was konservativer.

                            Wenn ich in meine frage mit schreibe, dass das Bild in einer hohen Qualität verarbeiten soll ist das Ergebnis schon besser.
                            ML sehen, ob man das in den Einstellungen vom bot mitgegeben bekommt.

                            T 1 Reply Last reply Reply Quote 0
                            • M
                              mick70 last edited by

                              Habe gerade mal einen Test versucht mit Perplexity/LLama huge und dem simple-chatbot Tool. Die Eingabe der Anfrage über ai-toolbox.0.Tools.simple-chatbot.text_request funktioniert zwar, aber über ai-toolbox.0.Tools.simple-chatbot.text_response kommt nichts zurück. Im Datenpunkt ai-toolbox.0.Tools.simple-chatbot.response.raw steht dennoch eine passende JSON Antwort und auch im Debug Log ist die Antwort enthalten. Die Anfrage über request/response beim Datenmodell selbst funktioniert dagegen anscheinend wie beabsichtigt.

                              Mache ich da noch etwas falsch oder sollte man hier die raw Response einfach selbst zerlegen?

                              T 1 Reply Last reply Reply Quote 0
                              • T
                                ToGe88 Developer @mick70 last edited by ToGe88

                                @mick70 Das könnte ein Bug sein, da ich selber keinen Perplexity API Zugang habe wäre es super wenn du mal das Debug Log einer Anfrage schicken könntest!

                                Edit: Der Inhalt von raw response wäre auch hilfreich

                                1 Reply Last reply Reply Quote 1
                                • T
                                  ToGe88 Developer @David G. last edited by

                                  @david-g Das klingt tatsächlich so als ob man das am besten über den Prompt bzw die Anfrage lösen sollte. Es gibt ja laut deinem Link den Parameter in der API um die höhere Qualität zu erzwingen, ich glaube es wäre aber nicht zielführend das für jede Anfrage an OpenAI zu setzen. Kannst du das Verhalten über den Prompt denn konsistent steuern?

                                  1 Reply Last reply Reply Quote 0
                                  • liv-in-sky
                                    liv-in-sky last edited by

                                    ein wahrlich interessantes projekt - leider fehlt mir die weitsicht, wenn es um anwendungen geht - daher die hoffnung, ihr werdet projekte oder tests in einem evlt. eignenen thread vorstellen 🙂

                                    1 Reply Last reply Reply Quote 1
                                    • H
                                      halsi82 @ToGe88 last edited by

                                      @toge88 Super Projekt. Herzlichen Dank. Nutze es für eine Wettervorhersage für den Tag 2x pro Tag via Pushover bekommen wir jetzt eine Wettervorhersage auf das Smartphone.

                                      Funktioniert top. Bin schon am überlegen welche anderen Daten und Möglichkeiten ich nutzen werde. Sobald ich noch neue Use Cases am Laufen habe, melde ich mich.

                                      Weiter so - echt genial 🙂

                                      T O 2 Replies Last reply Reply Quote 0
                                      • T
                                        ToGe88 Developer @halsi82 last edited by

                                        @halsi82 Danke für das Feedback! Bin gespannt welche Anwendungsfälle den Benutzern hier noch so einfallen 😀

                                        Der Adapter hat heute nochmal ein Update bekommen und sollte dann bald im Beta Repo veröffentlicht werden. Neben kleinen Korrekturen und Verbesserungen wurde Deepseek als API Anbieter mit aufgenommen.

                                        Neuschwansteini 1 Reply Last reply Reply Quote 2
                                        • Neuschwansteini
                                          Neuschwansteini @ToGe88 last edited by

                                          @toge88 super, ich wollte gerade fragen, ob deepseek machbar ist.. leider busy.. wegen apikey..

                                          1 Reply Last reply Reply Quote 0
                                          • O
                                            oxident @halsi82 last edited by

                                            @halsi82 Kannst Du grob umreißen, wie Du das umgesetzt hast?

                                            haselchen H 2 Replies Last reply Reply Quote 0
                                            • First post
                                              Last post

                                            Support us

                                            ioBroker
                                            Community Adapters
                                            Donate

                                            776
                                            Online

                                            31.7k
                                            Users

                                            79.8k
                                            Topics

                                            1.3m
                                            Posts

                                            10
                                            39
                                            2613
                                            Loading More Posts
                                            • Oldest to Newest
                                            • Newest to Oldest
                                            • Most Votes
                                            Reply
                                            • Reply as topic
                                            Log in to reply
                                            Community
                                            Impressum | Datenschutz-Bestimmungen | Nutzungsbedingungen
                                            The ioBroker Community 2014-2023
                                            logo