Blog

Write here questions, comments, recommendations and new ideas. To write just the name or a nickname like “I” or “Pippo”, leaving the other boxes blank.

Also add the “Email” only serves to distinguish with certainty. If you want to add the mail do it with confidence, We have better things to do, We collect addresses for spam.

The Blog is not all on this page, you go to the menu “Blog” and choose a topic.

If you cannot find the appropriate blog section, enter on this page and we'll, find the right section, or create a new one.


Insert images and highlight blog posts

Insert a picture:

<img src="HTTPS://www.xxxx.yyyy.zzzz.jpg" alt="Image description"/>

Highlight a portion of text:

<span style ="background-color: #ffff99;">TEXT TO HIGHLIGHT</span>

Feel free to make mistakes and experiments in posts. If something goes wrong, just write a second post, with corrections to do. We will do corrections, and finally we will cancel service messages.

  1. ROBERTO says:

    Hello Livio, Always many compliments for the work you do.
    I downloaded the theremino phonometer as I would like to try to make some measurements at the acoustic level of a heat pump (Condensing unit outdoor unit) at various operating speeds. I can't find, If I'm right, Indications regarding microphone schematics/connections ECM8000 to the master in the downloaded resources.
    Could you give me some information on this??

    Thanks and good job.

    Roberto

  2. Livio says:

    Unfortunately, Theremino GPT no longer works, we will find a solution but in the meantime to make it work you have to make your own key at OpenAI as explained in the "Theremino_GPT_Help.pdf" file that you can download from here:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    What happened?
    Someone in the days since 7 December to date has used GPT4 in a way that “immoderate” And in just a few days, it used a million tokens, by bulk sending the API key associated with our account.

    Let's take this opportunity to explain to those who don't know yet that GPT4 is very expensive, as much as thirty times more expensive than GPT 3.5 turbo.

    In addition, GPT4 is slow to respond, so it should be used sparingly and only if necessary.

    ———————

    In the coming days, we will release a new version of Theremino GPT, So be on the lookout for these messages on the news page.

    For now, as already written, if you want to use Theremino GPT you have to make your own key at OpenAI.

  3. Livio says:

    We've reset Theremino GPT to work.

    The version 4.7 Restore operation without having to make your own key (leaving the OpenAI-KEY box blank).

    As a reminder, our API-KEY only works with GPT-3.5-turbo.

    Let's take this opportunity to explain to those who don't know yet that GPT4 is very expensive, as much as thirty times more expensive than GPT 3.5 turbo. In addition, GPT4 is slow to respond, so it should be used sparingly and only if necessary.

    Download 4.7 from here:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. AlbertoR says:

    Hello Livio and all the developers of Theremino. I congratulate you on what you have done.

    I wanted to share the fact that I have successfully connected to a theremino Iot Module (TTGO7ver1.3) a very interesting I2C probe, at least for me. This is the Bosh probe with BME280 sensor, which is a pressure sensor, Temperature & Humidity. The specimen I bought (about ten euros) is branded mikroBUS.

    Obviously, I have modified the firmware so that it reads it correctly and I report the program below, Maybe it's useful as an additional example.

    I made the physical connection to the pins 21(SDA) and 22(SCL) which are the standard ones for ESP32 in I2C communications. I've seen that in the other examples you change them at will with the Wire library, I didn't succeed here and so I left them like this.

    In the IotHAL, the data pins are set to “Gen_in_float”.

    The power supply is 3.3V.

    Thank you again. Have a nice day.
    Alberto

    firmware:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber says:

    Hello Livio
    Il sistema Theremino con gli aggiornamenti (ad esempio Graphs) è diventato veramente uno strumento unico. Complimenti.
    Una curiosità. Ho visto il vostro interesse per l’Intelligenza Artificiale, io stesso sto provando a crearmi dei GPT personalizzati su temi di mio interesse. Si potrebbe secondo voi far si che un gpt personalizzato crei un codice da incollare in theremino automation spiegandogli cosa volglio fare ?

    • Livio says:

      Sarebbe una ottima cosa riuscirci ma non abbiamo ancora imparato ad addestrarli.
      Sarebbe bellissimo se si potesse addestrare un modello dandogli tutti i PDF che abbiamo scritto, ne abbiamo centinaia e poi potrebbe facilitare di molto l’uso delle nostre applicazioni.

      Tra poco pubblicheremo Theremino_LLM che non dipende più da OpenAI ma solo da modelli open source.
      E Theremino_LLM ascolta, parla, telefona, suona la musica, esegue i comandi domotici, etc…

      Però per ora ci limitiamo a usare quelli già pronti, che si trovano in questa pagina:
      https://ollama.com/library

      • geofaber says:

        Very good, immaginavo che eravate sul pezzo.
        Nella mia ignoranza e con i primi tentativi la prima cosa che ho capito è che l’AI fa piu quello che vuole lei e non quello che vuoi tu e l’addestramento non è affatto chiaro, per lo meno quello che un semplice utente come può fare con ilcrea il tuo GPT”.

  6. geofaber says:

    dentro a chatGPT c’è l’opzioneesplora GPTe li puoi farecrea
    li puoi nel tuo GPT personalizzato caricare file di riferimento, e anche istruzioni di riferimento.
    I feedback che invece gli dai durante la sessione vengono persi chiusa la sessione.
    Si può anche tramite le API interagire con l’esterno (ma questo per me è troppo complicato)
    Io ad esempio ne sto facendo uno per confrontare dei file di vibrazione, ma non c’è molta coerenza in quello che fa, gli smorzamenti ad esempio talolta li calcola in un modo talvola in un altro, sto cercando di limitarlo ad istruzioni piu precise

    • Livio says:

      Capito, comunque noi ci stiamo staccando da OpenAI e in futuro facciamo solo cose Open Source con Ollama.

      OpenAI doveva essere “Open” ma poi ha fregato tutti e se vuoi usare le api le devi pagare. Quindi abbiamo deciso di abbandonarli.

  7. geofabe says:

    And’ un ottima cosa, proverò a dare un occhio a Ollama

    • Livio says:

      Se fai prove usa gemma2:2b che è veloce e leggero
      Tieni conto che tutto ti funzionerà in locale e quindi devi avere molta ram (minimum 8 giga per i modelli più piccoli ma meglio 16, 32 or 64 giga)
      Se vuoi usare i modelli più grandi oltre alla ram ci vorrebbe anche una scheda video recente che abilta CUDA su Ollama, altrimenti la CPU va al 90 100% e rispondono lentamente.

      Con gemma2:2b vai abbastanza veloce anche su macchine piccole e contiene già una quantità incredibile di informazioni, ho chiesto di tutto e sa tutto. Inoltre parla bene in tutte le lingue ed è molto simile a ChatGpt 3, il tutto in poco più di 2 giga.

    • Livio says:

      Se vuoi fare qualche prova puoi scaricare questa piccola applicazione che stiamo usando per provare le possibilità di Ollama
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • Maurizio says:

        Hello Livio.

        Ho provato a lanciare l’eseguibile, ma non capisco come farlo funzionare.
        Se premo ‘show model info’, mi appare una finestra di cmd.exe che diceollamanon è riconosciuto come comando interno o esterno,
        un programma eseguibile o un file batch.
        Ho provato a premere ‘start ollama server on this computer’, e nella finestra del programma mi appare ‘Now the Ollama server is running on this computer.

        To access this server from other devices:
        Leave the COM window open
        Use the IP of this computer, from the following list:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 Connessione alla rete locale (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 Connessione alla rete locale (LAN)* 1
        169.254.139.102 Connessione alla rete locale (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 Wi-Fi’

        In addition, spesso mi appare una finestra di ‘eccezione non gestita nell’applicazione

        Ho provato a scaricare e installare ollama, e l’installazione è andata a buon fine, ma non funziona ugualmente.
        Ora mi appare: Model not found, please download it and retry.

        Puoi scrivere qualche info in più?

        Thank you
        Maurizio

        • Livio says:

          Prima devi installare ollama e credo che lo hai fatto
          Poi devi installare i modelli e poi funziona.

          Scegli gemma2:2b o un’altro piccolo nella casella dei modelli.
          Poi premiinstall modele aspetti che sia installato.

          Se un modello non c’è nella casella dei modelli,
          Awards “edit model liste poi scegli nella pagina dei modelli
          e infine lo aggiungi alla lista.

          Se ancora così non riesci metti skype sul PC
          e chiamami come livio_enrico

        • geofaber says:

          A me funziona.
          ma non sempre.

          ogni tanto compare anche a meModel not found, please download it and retryModel not found, please download it and retry
          Però se vado direttamente sul prompt di c;windows etc funziona

          • Livio says:

            Hai installato il modello più piccolo e veloce?
            gemma2:2b

            Quanto ci mette a rispondere la prima volta?
            (quando risponde)

            Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.

            Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 or 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.

            • geofaber says:

              si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 seconds. Ma penso che questo sia legato al mio pc.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • Livio says:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) from 16 giga l’una e aggiungerle alla DIMM che hai.
                Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.

                Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
                E in tutti i casi fai attenzione al numero di PIN, al DDR 3 or 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.

                Riguardo ad addestrarli è tutto un altro discorso, noi per ora ne abbiamo già abbastanza per riuscire a farli funzionare bene nella app Theremino_LLM che sarà simile a Theremino_GPT (che fa di tutto, parla, ascolta, controlla i dispositivi domotici, suona musica e video ecc..)

  8. Livio says:

    Spero che non stessi già usando la sezioneServerperché non funzionava ancora bene.
    La parte server permette di installa Ollama su un solo computer (possibilmente con molta ram e con CUDA) e poi utilizzarlo da tutti gli altri PC della rete.
    Ma se lavori su un PC solo non serve proprio.

    In version 1.2 that you download from here, anche la sezione server funziona bene:
    https://www.theremino.com/wp-content/uploads/files/Theremino_Ollama_v1.2.zip

Leave a Reply to Maximum Cancel reply

Your email address will not be published.