Blog

Schreiben Sie hier Fragen, Kommentare, Empfehlungen und neue Ideen. Nur der Name oder ein Pseudonym wie schreiben “Ich” oder “Pippo”, die anderen Felder lassen leer.

Fügen Sie auch die “E-Mail” nur dazu dient, die mit Sicherheit zu unterscheiden.. Wenn Sie hinzufügen möchten, die Mail tun es mit Vertrauen, Wir haben Besseres zu tun, Wir sammeln Adressen für spam.

Der Blog ist noch nicht alles auf dieser Seite, gehen Sie zum Menü “Blog” und wählen Sie ein Thema.

Wenn Sie nicht den entsprechenden Blog-Sektion finden, Geben Sie auf dieser Seite und wir werden, Suchen Sie den richtigen Abschnitt, oder eine neue erstellen.


Einfügen von Bildern und Blog-Posts zu markieren

Einfügen einer Grafik:

<Img Src ="HTTPS://www.xxxx.yyyy.zzzz.jpg" Alt ="Bildbeschreibung"/>

Markieren Sie einen Teil des Textes:

<span Style ="Hintergrundfarbe: #ffff99;">TEXT ZU HIGHLIGHT</Span>

Zögern Sie nicht, Fehler und Experimente in Beiträge zu machen. Wenn etwas schiefgeht, Schreiben Sie einfach eine zweite Stelle, mit Korrekturen zu tun. Wir werden tun, Korrekturen und schließlich brechen wir Dienstmitteilungen.

  1. ROBERTO sagt:

    Hallo Livio, Immer ein großes Kompliment für die Arbeit, die Sie leisten.
    Ich habe das Theremino-Phonometer heruntergeladen, da ich versuchen möchte, einige Messungen auf der akustischen Ebene einer Wärmepumpe durchzuführen (Verflüssigungssatz Außengerät) bei unterschiedlichen Betriebsgeschwindigkeiten. Ich kann nicht finden, Wenn ich recht habe, Hinweise zu Mikrofonschemata/-anschlüssen ECM8000 zum Master in den heruntergeladenen Ressourcen.
    Können Sie mir dazu ein paar Informationen geben??

    Vielen Dank und gute Arbeit.

    Roberto

  2. Livio sagt:

    Leider funktioniert Theremino GPT nicht mehr, Wir werden eine Lösung finden, aber in der Zwischenzeit müssen Sie Ihren eigenen Schlüssel bei OpenAI erstellen, damit es funktioniert, wie in der "Theremino_GPT_Help.pdf"-Datei erklärt, die Sie hier herunterladen können:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    Was ist passiert?
    Irgendjemand in den Tagen danach 7 Im Dezember bis heute wurde GPT4 so verwendet, dass “maßlos” Und in nur wenigen Tagen wurden eine Million Token verbraucht, durch Massenversand des mit unserem Konto verknüpften API-Schlüssels.

    Lassen Sie uns diese Gelegenheit nutzen, um denjenigen, die es noch nicht wissen, zu erklären, dass GPT4 sehr teuer ist, bis zu dreißigmal teurer als GPT 3.5 Turbo.

    Hinzu kommt, dass GPT4 nur langsam reagiert, daher sollte es sparsam und nur bei Bedarf eingesetzt werden.

    ———————

    In den kommenden Tagen werden wir eine neue Version von Theremino GPT veröffentlichen, Halten Sie also Ausschau nach diesen Nachrichten auf der Nachrichtenseite.

    Fürs erste, wie bereits geschrieben, Wenn Sie Theremino GPT verwenden möchten, müssen Sie Ihren eigenen Schlüssel bei OpenAI erstellen.

  3. Livio sagt:

    Wir haben Theremino GPT zum Laufen gebracht.

    Die version 4.7 Wiederherstellung des Betriebs, ohne einen eigenen Schlüssel erstellen zu müssen (Lassen Sie das Feld OpenAI-KEY leer).

    Zur Erinnerung: Unser API-KEY funktioniert nur mit GPT-3.5-turbo.

    Lassen Sie uns diese Gelegenheit nutzen, um denjenigen, die es noch nicht wissen, zu erklären, dass GPT4 sehr teuer ist, bis zu dreißigmal teurer als GPT 3.5 Turbo. Hinzu kommt, dass GPT4 nur langsam reagiert, daher sollte es sparsam und nur bei Bedarf eingesetzt werden.

    Download 4.7 von hier aus:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. AlbertoR sagt:

    Hallo Livio und alle Entwickler von Theremino. Ich gratuliere Ihnen wirklich zu dem, was Sie getan haben.

    Ich wollte die Tatsache teilen, dass ich erfolgreich eine Verbindung zu einem IoT-Modul hergestellt habe (Der TTGO7ver1.3) eine sehr interessante I2C-Sonde, zumindest für mich. Das ist die Bosh Sonde mit BME280 Sensor, bei dem es sich um einen Drucksensor handelt, Temperatur und Luftfeuchtigkeit. Das Exemplar, das ich gekauft habe (etwa zehn Euro) wird unter der Marke mikroBUS vermarktet.

    Offensichtlich habe ich die Firmware so modifiziert, dass sie korrekt gelesen wird, und ich melde das Programm unten, Vielleicht ist es als weiteres Beispiel nützlich.

    Ich habe die physische Verbindung zu den Pins hergestellt 21(SDA) und 22(SCL) die sind die Standards für ESP32 in der I2C-Kommunikation. Ich habe gesehen, dass man sie in den anderen Beispielen mit der Wire-Bibliothek nach Belieben ändern kann, Das ist mir hier nicht gelungen und so habe ich sie verlassen.

    Im IotHAL sollen die Daten Pins auf “Gen_in_float”.

    Die Stromversorgung erfolgt über 3,3 V.

    Nochmals vielen Dank. Ich wünsche dir einen schönen Tag.
    Alberto

    Mikroprogrammaufstellung:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber sagt:

    Hallo Livio
    Das Theremino-System mit Updates (z.B. Grafiken) ist wirklich zu einem einzigartigen Werkzeug geworden. Glückwunsch.
    Eine Kuriosität. Ich habe Ihr Interesse an Künstlicher Intelligenz gesehen, Ich selbst versuche, benutzerdefinierte GPTs zu Themen zu erstellen, die mich interessieren. Ihrer Meinung nach könnte es möglich sein, dass ein benutzerdefinierter gpt einen Code erstellt, der in die Theremino-Automatisierung eingefügt wird und erklärt, was ich tun möchte ?

    • Livio sagt:

      Es wäre eine großartige Sache, Erfolg zu haben, aber wir haben noch nicht gelernt, sie auszubilden.
      Es wäre großartig, wenn Sie ein Modell trainieren könnten, indem Sie ihm alle PDFs geben, die wir geschrieben haben, Wir haben Hunderte von ihnen und dann könnte es die Nutzung unserer Anwendungen erheblich erleichtern.

      Bald werden wir Theremino_LLM veröffentlichen, die nicht mehr auf OpenAI angewiesen sind, sondern nur noch auf Open-Source-Modelle.
      Und Theremino_LLM hören, Spricht, Rufen, Spielen Sie die Musik ab, Führt Befehle für die Heimautomatisierung aus, etc.…

      Aber im Moment beschränken wir uns darauf, die vorgefertigten zu verwenden, , die auf dieser Seite zu finden sind:
      https://ollama.com/library

      • geofaber sagt:

        Sehr gut, Ich habe mir vorgestellt, du wärst am Ball.
        In meiner Unwissenheit und bei den ersten Versuchen habe ich als erstes gemerkt, dass die KI mehr das tut, was sie will und nicht das, was man will, und das Training ist überhaupt nicht klar, zumindest das, was ein einfacher Benutzer mit dem “Erstellen Sie Ihre eigene GPT”.

  6. geofaber sagt:

    innerhalb von chatGPT gibt es die Option “Entdecken Sie GPT” Und Sie können sie tun “Erschafft”
    Sie können sie in Ihrer benutzerdefinierten GPT hochladen, um Referenzdateien hochzuladen, und auch Referenzanweisungen.
    Das Feedback, das Sie ihnen während der Sitzung geben, geht verloren, wenn die Sitzung geschlossen wird.
    Sie können auch über die API mit der Außenwelt interagieren (Aber das ist mir zu kompliziert)
    Zum Beispiel erstelle ich eine, um Vibrationsdateien zu vergleichen, Aber es gibt nicht viel Konstanz in dem, was er tut, Die Dämpfung berechnet sie zum Beispiel mal auf die eine, mal auf die andere Weise, Ich versuche, es auf genauere Anweisungen zu beschränken

    • Livio sagt:

      Verstanden, Wie auch immer, wir lösen uns von OpenAI und machen in Zukunft nur noch Open Source Sachen mit Ollama.

      OpenAI musste “Offen” Aber dann hat er alle getäuscht und wenn man Bienen einsetzen will, muss man für sie bezahlen. Also beschlossen wir, sie aufzugeben.

  7. Geofabe sagt:

    Und’ Eine sehr gute Sache, Ich werde versuchen, einen Blick auf Ollama zu werfen

    • Livio sagt:

      Wenn Sie Tests durchführen, verwenden Sie gemma2:2b, das schnell und leicht ist
      Denken Sie daran, dass alles lokal funktioniert und Sie daher viel RAM haben müssen (mindestens 8 Giga für kleinere Modelle, aber besser 16, 32 oder 64 giga)
      Wenn Sie die größeren Modelle verwenden möchten, benötigen Sie neben dem Arbeitsspeicher auch eine aktuelle Grafikkarte, die CUDA auf Ollama aktiviert, Andernfalls geht die CPU in den 90 100% und reagieren Sie langsam.

      Von gemma2:2b man kommt auch auf kleinen Maschinen recht schnell voran und es enthält schon unglaublich viele Informationen, Ich habe um alles gebeten und er weiß alles. Es spricht auch gut in allen Sprachen und ist ChatGPT sehr ähnlich 3, alles in wenig mehr als 2 giga.

    • Livio sagt:

      Wenn Sie einige Tests durchführen möchten, können Sie diese kleine Anwendung herunterladen, mit der wir die Möglichkeiten von Ollama ausprobieren
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • Maurizio sagt:

        Ciao Livio.

        Ich habe versucht, die ausführbare Datei zu starten, Aber ich verstehe nicht, wie ich das zum Laufen bringen soll.
        Wenn ich auf "Modellinfo anzeigen" drücke, Ich bekomme ein cmd.exe Fenster mit der Aufschrift “Ollama” wird nicht als interner oder externer Befehl erkannt,
        ein ausführbares Programm oder eine Batch-Datei.’
        Ich habe versucht, auf "Ollama-Server auf diesem Computer starten" zu drücken., und im Programmfenster sehe ich: "Jetzt läuft der Ollama-Server auf diesem Computer..

        So greifen Sie von anderen Geräten aus auf diesen Server zu:
        – Lassen Sie das COM-Fenster geöffnet
        – Verwenden Sie die IP dieses Computers, aus der folgenden Liste:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 LAN-Verbindung (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 LAN-Verbindung (LAN)* 1
        169.254.139.102 LAN-Verbindung (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 Wi-Fi’

        Außerdem, Ich bekomme oft ein Ausnahmefenster, das in der Anwendung nicht behandelt wird’

        Ich habe versucht, ollama herunterzuladen und zu installieren, und die Installation war erfolgreich, Aber es funktioniert nicht gleichermaßen.
        Jetzt kommt es mir vor: Modell nicht gefunden, Bitte laden Sie es herunter und versuchen Sie es erneut.

        Sie können weitere Informationen schreiben?

        Danke
        Maurizio

        • Livio sagt:

          Zuerst müsst ihr Ollama installieren und ich denke, ihr habt es geschafft
          Dann muss man die Templates installieren und dann klappt es.

          Wählen Sie gem2:2b oder eine andere kleine in der Vorlagenbox.
          Drücken Sie dann “Modell installieren” und warten Sie, bis es installiert ist.

          Wenn eine Vorlage im Vorlagenfeld fehlt,
          Auszeichnungen “Modellliste bearbeiten” und wählen Sie dann auf der Vorlagenseite
          und fügen Sie es schließlich der Liste hinzu.

          Wenn Sie Skype immer noch nicht auf den PC übertragen können
          Und ruf mich an wie livio_enrico

        • geofaber sagt:

          Es funktioniert für mich.
          aber nicht immer.

          Hin und wieder kommt es mir auch vor “Modell nicht gefunden, Bitte laden Sie es herunter und versuchen Sie es erneutModell nicht gefunden, Bitte laden Sie es herunter und versuchen Sie es erneut”
          Aber wenn ich direkt zur c-Eingabeaufforderung gehe;Fenster usw. funktioniert

          • Livio sagt:

            Sie haben das kleinste und schnellste Modell installiert?
            GEMMA2:2b

            Wie lange dauert es, bis ich das erste Mal antworte??
            (Wenn er antwortet)

            Ich sage das, weil wenn Sie sehr langsame Modelle installieren oder wenig RAM haben oder eine langsame CPU haben, Dann kann es Dutzende von Sekunden dauern und dann eine Zeitüberschreitung verursachen.

            Hoffentlich die Knospe2:2B sollte die erste Frage wie folgt beantworten: 7 oder 10 Höchstens Sekunden. Und gleich auf folgende Fragen, das heißt, ein paar Zehntelsekunden. Und Worte sollten sie immer schnell generieren, Fast zehn Wörter pro Sekunde.

            • geofaber sagt:

              Ja, ich habe gemma2 installiert:2b es dauert keine Zehntelsekunden, sondern auch 7-8 Sekunden. Aber ich denke, das hängt mit meinem PC zusammen.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • Livio sagt:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) Von 16 giga l’una e aggiungerle alla DIMM che hai.
                Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.

                Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
                E in tutti i casi fai attenzione al numero di PIN, al DDR 3 oder 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.

                Was die Ausbildung angeht, ist das eine ganz andere Sache, Im Moment haben wir bereits genug, um sie in der Theremino_LLM App gut funktionieren zu lassen, die ähnlich wie Theremino_GPT sein wird (die alles macht, Spricht, Zuhören, Steuerung von Hausautomationsgeräten, Spielen Sie Musik und Videos usw. ab.)

  8. Livio sagt:

    Ich hoffe, du hast den Abschnitt noch nicht verwendet “Server” weil es immer noch nicht gut funktionierte.
    Der Serverteil ermöglicht es Ihnen, Ollama auf einem einzelnen Computer zu installieren (evtl. mit viel RAM und mit CUDA) und verwenden Sie es dann von allen anderen PCs im Netzwerk aus.
    Aber wenn Sie an einem einzelnen PC arbeiten, brauchen Sie ihn nicht wirklich.

    In der version 1.2 dass Sie hier herunterladen, Der Serverbereich funktioniert auch gut:
    https://www.theremino.com/files/Theremino_Ollama_V1.2.zip

  9. Livio sagt:

    Es gab immer noch einen Fehler, hier ist die Version 1.3
    https://www.theremino.com/files/Theremino_Ollama_V1.3.zip

  10. Maurizio sagt:

    Ciao Livio.
    Ich habe die Version installiert 1.3 und das Befolgen Ihrer Anweisungen funktioniert jetzt.
    Sicherlich ein kleines Handbuch, Auch eine kleine Seite, Könnte helfen.
    Zum Beispiel, Allein von der Benutzeroberfläche her hatte ich die Sache mit dem Server nicht verstanden.
    Die Reaktionsgeschwindigkeit ist in meinem Fall akzeptabel, Nun, innerhalb der Zeiten, die Sie erwähnt haben.

    Ich habe ein paar Fragen:
    – Die KI antwortet über eine Offline-Datenbank oder führt eine autonome Suche über die Verbindung des Host-Computers durch?
    – Wenn Sie standardmäßig keinen Zugriff auf das Internet haben, Sie können es aktivieren?
    – Ich habe festgestellt, dass, wenn ich eine zweite Frage stelle, indem ich sie an die Antwort der KI anhänge, Ich bekomme keine Antwort, wenn der vorherige Text sehr lang ist. Ist der Text hingegen kurz, oder ich lösche den Text und stelle nur meine Frage, Die Antwort kommt. Wenn ich mich richtig erinnere, Mit GPT gab das Belassen des vorherigen Textes der nachfolgenden Kommunikation einen Hintergrundkontext. Mit Ollama geht dieses Konzept verloren?
    – wenn ich "seltsame" Themen anfange’ (Unsinnige Dinge, oder Oxymorone) KI antwortet auf Englisch. Wie soll ich diese Verhaltensänderung interpretieren?? Außerdem, alle folgenden Themen werden in englischer Sprache behandelt, Und um auf Italienisch zurückzukommen, muss man ganz explizit danach fragen

    Dies beginnt mit, c

    • Livio sagt:

      Wir werden die Dokumentation erstellen, wenn wir sie veröffentlichen.

      Die KI weiß nur, was sich in den Gigabyte befindet, aus denen das heruntergeladene Modell besteht.
      Die Modelle, die Sie herunterladen, werden in der Regel mit Internetdaten aktualisiert, die bis zu einem Jahr zurückliegen. Sie lernen nichts und suchen nicht im Internet.

      Wenn Sie keinen Internetzugang haben, sollte alles gleich funktionieren (Zuerst müssen Sie jedoch die Vorlagen aus dem Internet installieren).

      Wenn Sie eine neue Frage stellen, die den vorherigen Kontext verlässt, funktioniert sie und berücksichtigt den Kontext, kann aber viel langsamer beantwortet werden.

      Wenn du mit seltsamen Themen anfängst oder seltsame Dinge auf Englisch machst usw… Nur das Modell, das Sie verwenden, weiß, was passiert. Ich habe keine Ahnung, warum er das tut, und wahrscheinlich auch nicht diejenigen, die ihn trainiert haben.

      Sie können bei Bedarf versuchen, andere Vorlagen herunterzuladen (aber immer klein, da man nur 8 giga und ich glaube kein CUDA)
      Versuchen Sie es mit qwen2.1.5b, dem letzten am Ende der Liste, den ich in der Version gelassen habe 1.3. Und’ Ein bisschen’ wild, aber sehr schnell und für manche Dinge ist es okay.

      Wenn Sie sehen möchten, ob Ollama auf die CUDA Ihrer Grafikkarte zugreifen kann, drücken Sie “Ollama Server starten” und durchsuchen Sie dann den weiß-auf-schwarzen Text nach dem, was er über CUDA aussagt.

    • Livio sagt:

      Wir haben die OLLAMA App ein wenig verbessert
      https://www.theremino.com/files/Theremino_Ollama_V1.4.zip

      Denken Sie jedoch daran, dass dies nur ein erster Test ist, Später wird es Teil der Theremino_LLM Anwendung, die ähnlich wie Theremino_GPT

      Und Theremino_LLM alles machen, das heißt, zu sprechen, zuhören, Steuerung von Hausautomationsgeräten, Musik abspielen, Videos öffnen und herunterladen, Telefon, und so weiter..

      • Maurizio sagt:

        Ciao Livio.

        Heute Morgen habe ich ein kleines’ der Freizeit, und ich mache ein paar Tests mit Ollama – Edelstein 2.2B, und Ihre Version 1.4.
        Ich hätte die Dialoge hier gerne kopiert, aber ich habe festgestellt, dass Sie das Theremino Ollama-Fenster nicht markieren und kopieren können.

        Ich fasse zusammen, was mir vorerst aufgefallen ist:
        Zu meiner Anfrage nach einer Wettervorhersage für meine Region, Ollama hat "den Hund durch den Hof geprügelt", Er sagte mir, dass es mir sicherlich helfen kann, aber eine genauere Frage benötigt, und dass ich angeben muss, welche Art von Informationen ich benötige (Prozentsatz der Niederschläge, Regenmenge, Daten des Bereichs, auf den Bezug genommen werden soll, etc.). Ich musste mehrmals angeben, mit immer mehr Detailgenauigkeit, Was genau wollte ich, Denn er kreiste ständig um meine Frage, Bitten Sie stattdessen um Antworten. Als ich überzeugt war, dass er sich über mich lustig machte, Und dass ich nie die Antwort bekommen würde, die ich suchte, Er gab mir allgemeine Vorhersagen, aber im Einklang mit dem, was von den Wettervorhersageseiten deklariert wurde. Dann, erweckte bei mir den Eindruck, dass ich auf das Internet zugegriffen hätte.
        Jedoch, indem Sie eine direkte Frage dazu stellen, wie Sie auf das Internet zugreifen, Antworten, dass er keinen Zugang zu, weder direkt noch über Programme, und dass sein Wissen auf dem Datensatz basiert, auf dem es trainiert wurde.
        Ich habe Zweifel: Er lernte wirklich Echtzeitinformationen aus dem Internet, oder ein erworbenes Wettermodell angewendet, was statistisch gesehen Regen in meiner Gegend zu dieser Jahreszeit vorhersagt? In beiden Fällen, Die Antwort ist ein bisschen’ beunruhigend. Er hat mich über seine wirklichen Zugangsmöglichkeiten belogen, oder den Inhalt seines Datensatzes als echte Information weitergegeben hat?
        Außerdem, wenn ich nach Orten oder Aktivitäten in meiner Nähe frage, Manchmal erfindet er nicht existierende Namen aus dem Nichts, oder er erwähnt sehr weit entfernte Orte als lokal, auch in anderen Teilen der Welt.
        Mein erster Eindruck, die ich bereits mit ChatGPT hatte, ist, dass sich die KI auf sehr akzentuierte Weise eine ganz menschliche Fähigkeit angeeignet hat: die des Flüchtigseins, den Eindruck zu erwecken, zu wissen, auch wenn er es nicht weiß, und täuschen größere Intelligenz und Wissen vor. Ich hätte mir ein nettes "Ich weiß es nicht" gewünscht, oder "nicht in meinem Datensatz enthalten", anstatt mich glauben zu machen, dass er es weiß, aber dass ich es bin, der die Frage falsch gestellt hat.
        Denn solange die Frage von einer Person gestellt wird, die technisch vorbereitet ist, über die Eigenschaften des Systems informiert, KI-Antworten haben das Gewicht, das sie verdienen. Aber wenn der Gesprächspartner ein Kind ist, oder eine ältere Person, Schnelles Erlernen des technischen Aspekts, Die Dinge können unangenehme Wendungen nehmen.
        Ich muss auch hinzufügen, dass nach der anfänglichen Diskussion über die Wettervorhersage, und nachdem er die KI explizit gefragt hat, ob sie Zugang zum Internet haben könnte, als hätte sie begriffen, dass sie entdeckt worden war, auf nachfolgende Fragen zu Echtzeitinformationen, Er antwortete sogar, dass er keinen Zugang zum Internet habe und nur auf seinem Datensatz basiere.
        Dann, Für mich bleibt diese KI eine "besondere Überwachung", Und wenn ich Zeit habe, Ich werde während des Dialogs mit den entsprechenden Programmen nach einem etwaigen Zugang zum Netzwerk suchen.

        Davon abgesehen, Ich freue mich darauf, das Theremino LLM zu sehen und auszuprobieren, Da dies der Fall ist,, Soweit ich das verstehe, Eine fortschrittliche Steuerung für die Hausautomation, Ich hoffe, es wird nicht von der Flüchtigkeit beeinflusst, die ich erwähnt habe.

        In der Zwischenzeit, Ich versuche, mit anderen Models zu sprechen, um die Unterschiede zu beurteilen.

        Hallo
        Maurizio

        • Livio sagt:

          Ich würde sagen, dass Sie noch nicht ganz verstanden haben, was KIs sind, Ich werde versuchen, eine kurze Zusammenfassung zu machen.

          Aktuelle KIs sind “Große Sprachmodelle” (Großes Sprachmodell) und sie sind einfach ein großer Haufen “Gewichte” (Ähnlich wie menschliche Synapsen). Und diese Gewichte wurden durch das Lesen von Milliarden von “Dinge” Überall zu finden.

          Die KI-Engine lokalisiert einfach die wahrscheinlichsten Wörter und fügt sie zusammen.
          Mit anderen Worten, nach “…Identifizieren Sie die wahrscheinlichsten Wörter und setzen Sie sie ein…” Das wahrscheinlichste Wort, das folgt, ist “zusammen”, Oder es könnte auch sein “Legen Sie sie nacheinander” oder ähnliches.

          Eine sehr treffende Definition ist, dass KIs “Hochgebildete Papageien”. Mit anderen Worten, sie mischen die Wörter nur auf eine andere Weise und setzen sie nacheinander.

          Aber wie kommt es dann, dass “Verstehe” und haben fast ein Gewissen? Denn die Dimensionen ihres Trainings beginnen so groß zu sein, dass sie ein gewisses Maß an Verständnis und Bewusstsein erlangen.

          Aber es ist ein sehr begrenztes Bewusstsein, da wir nur über 2B sprechen (Zwei Milliarden Parameter) während ChatGPT und andere sogar bis zu 100 Byte und darüber hinaus gehen.

          Mit anderen Worten: Wir Menschen sind nichts anderes als “Gebildete Papageien” nur, dass unsere Synapsen etwa 100 millionenfach größer als die Gewichte des größten jemals geschaffenen LLM.

          Wenn du eine bestimmte Anzahl von Parametern überschreitest, beginnen Verständnis und Bewusstsein von selbst zu entstehen. Aber denken Sie immer daran, dass es bei 2B oder sogar 20B oder sogar 200B immer nur kleine Geistesblitze sind, weit entfernt von menschlichem Bewusstsein.

          Es muss aber auch gesagt werden, dass KIs, obwohl einfache Papageien nicht nutzlos sind, In der Tat sind sie eine fantastische Sache:

          1) Sie ermöglichen es uns endlich zu verstehen, wie wir selbst funktionieren.
          2) Sie geben uns ein Maß dafür, wie viel Komplexität es braucht, um Bewusstsein zu schaffen.
          3) Sie können nützlich sein, um Sätze neu zu mischen und Wissen zu synthetisieren, das hier und da genommen wurde.
          4) Sie können nützlich sein, um schnell Informationen aufzuspüren, ohne Websites durchsuchen und durch Seiten und Seiten scrollen zu müssen.

          Wir müssen sie jedoch für das nutzen, was sie sind und was sie können.
          Überlegen Sie, welche KI Sie verwenden (wenn es von 2B ist, 20B oder 200B)
          Vermeide es, ihm eine Bereitschaft zum Lügen zuzuschreiben.
          Manchmal scheint es ein Wille zu sein, aber es ist nur das Ergebnis eines Mechanismus, der die wahrscheinlichsten Worte zusammenfügt.

          Auch wir Menschen “Lassen Sie uns die wahrscheinlichsten Wörter zusammenstellen” aber anstelle von 2 B oder 200 B, bei dem es darum geht 20 000 000 000 B

  11. Livio sagt:

    Und wenn ich wirklich ehrlich sein muss… Es gibt Menschen, die noch weniger zuverlässig sind als eine KI 2B.
    – Menschen, die glauben, dass die Erde flach ist.
    – Menschen, die all unsere Ressourcen in Waffen stecken, anstatt in die Gesundheitsversorgung.
    – Leute, die, wenn man sie fragt, was eine Newton Metro ist, denken, es sei die U-Bahn…
    – Etc..

    Aber versuchen Sie, eine KI zu fragen, selbst das kleinste Ding ist ein Newtonmeter und weiß es in der Regel.

    • Maurizio sagt:

      Hallo Livio.

      Wie immer, Sie haben es geschafft, mehr in ein paar Sätzen zu verdichten, als ich mit stundenlanger Recherche im Internet verstehen konnte.
      Ich stimme mit allem überein, was Sie geschrieben haben, und Sie investieren viel Zeit’ von Forschungsideen, die erforscht werden sollen.
      Aber die Tatsache bleibt, dass KIs auf dem Vormarsch sind (Zu viel) Fasten in unserem Leben. Vor ein paar Tagen habe ich eine Werbung für die neue Generation von Computern gesehen, die mit künstlicher Intelligenz ausgestattet sein wird und in der Lage sein wird, mit dem Nutzer in Dialog zu treten, Sie sagen bereits, dass sie die Tastatur abnehmen werden, weil sie nutzlos sein wird.
      Und ich erwarte, dass das Gleiche mit den Telefonbeantwortern passieren wird, die die eingehenden Anrufe eines Unternehmens sortieren, oder in Service-Centern, Krankenhäuser..
      Das macht mir Sorgen.
      Warum KI, Wir haben es gerade gesagt, gewinnen an Bewusstsein, und sich immer menschlicher zu verhalten, Das heißt, in Wirklichkeit auf eine immer dümmere Art und Weise.
      Meine Befürchtung ist, dass die Suche nach KI-Bewusstsein nicht zu mehr Intelligenz führen wird, aber nur zu noch größerer Dummheit.
      Wir laufen Gefahr, uns nicht so sehr mit einer künstlichen Intelligenz konfrontiert zu sehen, sondern eher zu einer künstlichen Dummheit.
      Und der Mensch kümmert sich um den Rest, die die Behauptungen der KI für wahr halten werden, sie für zuverlässiger zu halten, weil wir dazu neigen, Computer als fehlerfrei zu betrachten.

      Ich bin kein Kritiker von KIs, im Gegenteil:. Ich sehe sie als eine wertvolle Hilfe in unserem Leben. Aber ich frage mich, ob das, was eingeschlagen wurde, die richtige Richtung ist.
      Aus meiner Sicht, besser eine spezialisierte KI, der weiß, wie man nur eine Sache gut macht, ohne Gewissensanmaßung.

      Natürlich, Wir wissen, dass der Diskurs sehr breit gefächert ist, Und von hier aus könnten wir anfangen, über Soziologie zu sprechen, Ethik und Philosophie, und ich weiß nicht, ob dieser Blog der geeignetste Ort ist.

      Bleiben Sie daher im Rahmen dieses Blogs, Ich persönlich frage mich, Wie bereits in früheren Redebeiträgen erwähnt, ob die aktuelle Technologie gewinnbringend eingesetzt werden könnte, um sie in bestimmten Aufgaben zu trainieren. Sie selbst sprachen davon, es mit den Dokumenten des Theremino-Systems zu unterweisen.
      Es würde sich um die Durchführung eines chirurgischen Eingriffs handeln’ eine Art Lobotomie, was die KI weniger bewusst, aber erfahrener in dem machen würde, was wir brauchen.
      Im Moment ist meine kurze Recherche (Wie ihr wisst, ist meine Freizeit sehr wenig) haben keine Ergebnisse erbracht, Ich habe einen Weg gefunden, den Charakter zu ändern’ Anzahl der Modelle, aber nicht deren Datenbanken.
      Sie haben sicherlich noch mehr Informationen, Ich würde mich freuen, wenn Sie die Zeit finden würden, sie zu teilen.

      Hallo
      Maurizio

  12. Livio sagt:

    Die Zombieisierung der meisten Menschen ist bereits im Gange und die Hauptschuldigen sind Smartphones, Auf Facebook (Englisch), TikTok usw..

    Inzwischen haben die meisten Menschen nur noch eine Hand und ihre Gehirne sind kaputt, und KIs werden auch dazu beitragen, aber in geringem Maße, um diesen Prozentsatz zu erhöhen.

    Auf der anderen Seite für diejenigen, die studieren und wirklich lernen wollen, KIs sind ein mächtiges Werkzeug, das uns hilft, jedes Problem zu lösen, inklusive Zombisierung, Kriege etc..

    Als ich ein Kind war, musste ich, wenn ich etwas finden wollte, das Motorrad nehmen, Zur Bibliothek, Ich hoffe, ein Buch zu finden, das darüber spricht, Suche im Buch, Machen Sie sich Notizen usw..
    Mit dem Internet kann ich nach dem Gleichen suchen in 30 Sekunden und in der nächsten Minute kann ich mir schon einen anderen suchen und ich muss nicht einmal das Auto nehmen und die Umwelt verschmutzen.
    KIs sind ein weiterer Sprung zwischen der Bibliothek und dem Internet, oder wie man mit der Hand auf Papyri und gedruckten Büchern schreibt. Und man fällt nicht einmal Bäume, um Papier herzustellen.

    Und da wir Menschen zu dumm sind (Das zeigen Überbevölkerung und Kriege) Ich glaube wirklich, dass unsere einzige Chance, uns selbst zu retten, darin bestehen wird, eine Intelligenz zu schaffen, die fähig genug ist, Lösungen zu finden, von denen wir nicht wissen, wie wir sie finden sollen.

    Und’ Ein Kampf gegen die Zeit: Entweder schaffen wir sie schnell genug oder wir stehen vor der sicheren Zerstörung. Sie können nicht komprimieren 10 Milliarden von Menschen auf einem Planeten, der sie glücklich leben lassen könnte 10 Millionen.

    • Maurizio sagt:

      MAH..
      Natürlich (Wir kennen uns schon lange, inzwischen) Ich stimme dir für das meiste von dem, was du geschrieben hast, zu.
      Auch ich bin froh, dass ich nicht mehr in den verschiedenen Bibliotheken nach Informationen suchen muss (weil jede ihre eigene Spezialisierung hatte, und das Buch, das ich suchte, war nicht immer in der nahegelegenen, Manchmal musste ich den Zug nehmen.).
      Ich bin dem Internet mehr als dankbar und mir bewusst, wie sehr dieses Tool meine Recherche und den Informationserwerb beschleunigt hat.
      Aber "minimale" KI, von denen wir sprechen, Verblüfft mich immer noch.
      Nicht wegen des falschen Gebrauchs, den jemand daraus machen könnte, Wäre da nicht die Tatsache, dass es mir so vorkommt, als gäbe es eine reale Gefahr, die menschliche Dummheit zu replizieren und zu verbreiten.
      Mehr als nur die Sorge um den falschen Gebrauch, Ich frage mich, wie ich die Nutzung verbessern kann
      korrigiert. Und ich denke, das ist es, was Sie bereits tun.

      • Livio sagt:

        Die KI, die Sie definieren “minimale”, Es gibt viele und einige sogar schöne große Exemplare (407 B), Schade, dass Sie sie brauchen, um sie zu verwenden, bedeutet das, dass es schwierig ist, sie zusammenzustellen.
        Ich würde sie jedoch mehr oder weniger als eine Studie darüber betrachten, was getan werden kann und wie viele Ressourcen benötigt werden.

        Natürlich kann es nicht so genaue Antworten geben wie Gemini (die derzeit am besten für den allgemeinen Gebrauch geeignet ist) oder wie viel PHIND (was ich für technische Dinge am besten finde). Es kann aber auch immer nützlich sein, wenn man bedenkt, dass es ein wenig’ wie ein Notizbuch und nichts weiter.

        Und es hilft sicherlich unserem Mitarbeiter Leo, der in China ist, da die elektronische Wand Google blockiert, PHIND und alle anderen westlichen KIs.
        Die Chinesen lassen etwas von ihnen herstellen, aber es ist unbrauchbar, Es hat keine APIs zur Kommunikation wie ChatGPT und es ist einfach, Zumindest vorerst.

  13. Livio sagt:

    Und wenn jemand KI missbraucht, dass er das tut! Es ist nichts im Vergleich zu dem, was sie bereits mit Dingen wie Geld machen, Gier, Benzodiazepine, Zucker, Die Bomben, Kriegsgewehre, I-Kämpfer, Antipersonenminen etc..

    Um zu verstehen, was wir wirklich riskieren, sehen Sie sich eine Minute dieses Videos an
    von hier:
    https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s

  14. theremino sagt:

    Wir haben uns noch ein bisschen verbessert’ die OLLAMA App
    https://www.theremino.com/files/Theremino_Ollama_V1.5.zip

    Die Befehle STRG-C und STRG-V zum Kopieren funktionieren jetzt.
    Und es funktioniert auch STRG-Z und STRG-Y, die UNDO und REDO sind

  15. Livio sagt:

    Es kann vorkommen, dass Ollama aktualisiert wird und dann nicht mehr funktioniert, Einfügen eines Fehlers, der einige C-DLLs betrifft.

    Um das Problem zu beheben, laden Sie diese Datei herunter und installieren Sie die “Runtime del C”

    https://www.theremino.com/files/VC_redist.x64.exe.zip

    Sie müssen es aus der ZIP-Datei extrahieren und ausführen, Es dauert ein paar Dutzend Sekunden.

    Wenn Sie möchten, können Sie auch suchen “VC_redist.x64.exe” bei Google und laden Sie es von Microsoft-Websites herunter.

  16. Marco sagt:

    Ciao Livio,
    Wie immer vielen Dank für Ihre großartige Arbeit.
    Ich habe ein paar kleine Experimente mit Ollama gemacht, insbesondere das Gemma-Modell 2:9b.

    Aus der Zusammenfassung eines kurzen Dialogs, die ich unten anhänge, Ich denke, Sie können erahnen, dass diese Systeme bereits auf die Interaktion mit der Welt der Sensoren/Aktoren ausgerichtet sind. Wenn ich nicht zu weit nach vorne laufe, könnten Sie dann einen LLM verwenden, um Sensoren/Aktoren zu steuern, auch wenn sie nur durch Sprachdialoge passieren (Ich denke da an Theremino Voice) Und’ korrigiert?

  17. Marco sagt:

    LLM:
    Haben Sie noch weitere Fragen?

    MENSCH
    Wenn ein hydraulischer Aktuator durch einen Befehl bewegt wird, der über eine Zeichenkette des Typs “SENDEN nnn” wobei nnn eine Zahl zwischen 0 und 999, Um den Aktuator halbwegs zu bewegen, welche Zeichenkette soll ich als Befehl senden?

    LLM:
    So bewegen Sie den Aktuator zur Hälfte, Sie sollten die Zeichenfolge **SEND senden 500**.
    Das ist, warum:
    * Die Zeichenkette “SENDEN” zeigt an, dass Sie einen Befehl an den Aktuator senden.
    * Die drei Zahlen (“nnn”) stellen die Position des Aktuators dar, mit 0 als Ausgangsposition und 999 als maximale Position.
    * Mitte, Der Wert sollte der Wert sein: 50% des gesamten Reiseverkehrs (999), dann 999 / 2 = 500.

    MENSCH
    Recht, Tatsächlich ist der Wert der “nnn” stellt ein lineares Verhältnis zwischen Verschiebung und Wert selbst her.
    Jetzt frage ich dich, Wenn Sie den Befehl “250 SENDEN” wie/wo sich der Aktuator bewegen würde?

    LLM:
    Wenn Sie den Befehl “250 SENDEN”, Der Aktuator bewegt sich auf ein Viertel des Gesamthubs.
    * Denken Sie daran, dass 0 ist die Ausgangsposition und 999 Die maximale Position.
    * Der Wert 250 stellt die 25% (250/999) des gesamten Reiseverkehrs.
    Haben Sie noch weitere Fragen?

    MENSCH
    Sie generieren den Befehl, den Aktuator auf drei Viertel seines maximalen Hubs zu bewegen, die wir definieren als “Ganz offen” während der Aktuator bei einem Viertel seines Hubs “Nicht sehr offen”. Beschränken Sie Ihre Antwort auf das Generieren des Befehls “Ganz offen”.

    LLM:
    SENDEN 750

    MENSCH
    Bringen Sie nun den Antrieb in die leicht geöffnete Position…

    LLM:
    SENDEN 250

    MENSCH
    Bringen Sie es nun in eine fast geschlossene Position, nur sehr wenig offen…

    LLM:
    SENDEN 10

    MENSCH
    Gut, Sie wurden richtig geschult, um Aktuatoren Befehle zu geben!

    LLM:
    Ich habe es genossen, mit dir zu trainieren! Ich scheine gelernt zu haben, wie man die richtigen Befehle für den hydraulischen Aktuator generiert.
    Wenn Sie andere Übungen oder Hilfe bei anderen Aktivitäten benötigen, Zögern Sie nicht, mich anzurufen! Ich bin immer bereit zu lernen und nützlich zu sein.
    ——————–

    • Livio sagt:

      Ja, aber es gibt ein paar’ von Problemen…
      1) Der am nächsten Tag alles vergaß.
      2) Was für die meisten wirklich nützlichen Dinge zu langsam ist.
      3) Dass man, um ihm selbst die einfachsten Dinge beizubringen, viel Zeit und für Dinge ein wenig verschwenden muss’ Weniger einfach kann das sein “Dickköpfig” die du zuerst tust, um sie zu machen.
      4) etc.…

      Alles Dinge, die gelöst werden können und es gibt Menschen, die einfach nur diese Dinge tun.
      Doch leider sind die Ressourcen, Die Zeit und die Mittel, die uns derzeit zur Verfügung stehen, reichen nicht aus.
      Ich habe immer noch nicht die geringste Ahnung, wie ich das machen soll “Zug” die Modelle und nach dem, was ich gelesen habe, ist es gar nicht so einfach. Wir müssten viele Dinge lernen und unendlich viel Zeit verschwenden, die wir nicht haben.

      So wie Sie es gewohnt sind “Zug” Es ist kein richtiges Training, Sie stellen nur ein paar Sätze Kontext zusammen und erhalten ein paar Antworten. Es kann nur für ultraeinfache Dinge und mit geringer Effizienz funktionieren. In dem Sinne, dass, wenn Sie ein wenig kompliziert machen’ Bedürfnisse, Dann wird es schwierig, alles unter Kontrolle zu halten und ihn wirklich dazu zu bringen, das zu tun, was man will, und außerdem würde er auch furchtbar langsam reagieren..

      Wie auch immer, ja, Ich stimme Ihnen zu, Was Sie gezeigt haben, ist mehr oder weniger das, was getan werden muss. Aber ich habe Angst, dass es wirklich funktioniert, um etwas zu kontrollieren, Es ist schrecklich schwieriger, als es nach deinen Prüfungen scheint.

      Wenn du Zeit und Lust hast, könntest du erforschen und versuchen zu verstehen… wahrscheinlich könnte es helfen, von diesen Seiten aus zu starten:
      https://github.com/ollama/ollama/blob/main/docs/api.md

      Im Moment habe ich noch nicht viel verstanden, auch, weil ich einige wichtige Bewerbungen beende und nur sehr wenig Zeit habe.

  18. Marco R sagt:

    Danke Livio für die Klarstellungen, Tatsächlich sind diese Systeme vor allem im Verhältnis zu den Ressourcen, die sie verbrauchen, noch zu langsam. Wahrscheinlich aufgrund der Rechenzeit und der riesigen Datenmenge, die sie verarbeiten müssen, von Julius Cäsar bis zu physikalischen Problemen.
    Ich kann mir nur vorstellen, mit welcher Langsamkeit er durch Rückmeldung von einem oder mehreren Sensoren mit einem Aktuator umgehen konnte….
    Danke für den Link, auch wenn ich befürchte, dass ich nicht so und so viel Computerkenntnisse habe.

    • Livio sagt:

      Leider geht es dabei nicht nur um Computerkenntnisse, sondern um Spezialwissen über KI-Techniken. Und sogar diejenigen, die Informatik aus 1970 Wie ich, wenn wir anfangen, über LLM-Einbettungen zu sprechen, verstehen wir wenig oder gar nichts.

      Ein bisschen’ Zu einem Zeitpunkt, an dem wir verstehen werden,, Aber es gibt zwar Menschen, die seit Jahrzehnten nichts anderes tun, Wir sind notwendigerweise viel langsamer, da wir mit vielen verschiedenen Dingen zu tun haben, Elektronik, Sensoren, Software, Chemie, Musik usw.…

  19. theremino sagt:

    Piccoli miglioramenti…
    https://www.theremino.com/files/Theremino_Ollama_V1.8.zip

    Sie sind nur Experimente… Es wird eine Weile dauern’ Um den eigentlichen Theremino_LLM zu beenden

  20. Livio sagt:

    Piccoli miglioramenti…
    https://www.theremino.com/files/Theremino_Ollama_V1.9.zip

    LLMs sind interessant “Unzensiert” !!!

    Probieren Sie immer die 2B-Modelle aus, sonst wären die größeren auf normalen Rechnern zu langsam, ohne Octucore, NPU, Cuda usw.…

    Das sind nur Experimente... Es wird eine Weile dauern, bis die eigentliche Theremino_LLM

Hinterlasse eine Antwort

Ihre e-Mail-Adresse wird nicht veröffentlicht.