博客

在这里写问题, 评论, 建议和新的想法. 写的名字或昵称像 “我” 或 “皮波”, 将其他框留空.

此外将添加 “电子邮件” 仅用于明确区分. 如果您想要添加邮件做到信心, 我们有更好的事情要做, 我们收集的垃圾邮件的地址.

博客不是所有在此页, 你转到菜单 “博客” 选择一个主题.

如果你找不到适当的博客节, 在此页上输入和我们会, 找到正确的部分, 或创建一个新.


插入图像和突出的博客帖子

插入图片:

<img src ="HTTPS://www.xxxx.yyyy.zzzz.jpg" alt ="图像描述"/>

突出显示文本的一部分:

<大跨度风格 ="背景颜色: #ffff99;">突出显示文本</跨度>

随时可以犯错,实验在员额. 如果出了什么差错, 只是写第二个职位, 与做的更正. 我们将做更正,并最后我们将取消服务消息.

  1. 罗伯托 说:

    你好 Livio, 对你所做的工作总是有很多赞美.
    我下载了theremino留声机, 因为我想尝试在热泵的声学水平上进行一些测量 (冷凝机组室外机) 在各种运行速度下. 我找不到, 如果我是对的, 有关下载资源中与主站ECM8000的麦克风原理图/连接指示.
    你能给我一些这方面的信息吗??

    谢谢,好的工作.

    罗伯托 ·

  2. 里维奥 说:

    不幸的是, Theremino GPT 不再有效, 我们会找到一个解决方案,但与此同时,要使其正常工作,您必须在 OpenAI 上制作自己的密钥,如您可以从此处下载的“Theremino_GPT_Help.pdf”文件中所述:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    发生了什么事?
    从那以后的日子里有人 7 12 月迄今为止,GPT4 的使用方式是 “不适度” 在短短几天内,它使用了一百万个代币, 通过批量发送与我们帐户关联的 API 密钥.

    让我们借此机会向那些还不知道 GPT4 非常昂贵的人解释一下, 比 GPT 贵 30 倍 3.5 汽.

    此外,GPT4 响应缓慢,因此应谨慎使用,仅在必要时使用.

    ———————

    在接下来的几天里, 我们将发布新版本的 Theremino GPT, 因此,请留意新闻页面上的这些消息.

    现在, 正如已经写, 如果你想使用 Theremino GPT, 你必须在 OpenAI 上制作自己的密钥.

  3. 里维奥 说:

    我们已经重置 Theremino GPT 以工作.

    版本 4.7 无需制作自己的密钥即可恢复操作 (将 OpenAI-KEY 框留空).

    提醒一下,我们的 API-KEY 仅适用于 GPT-3.5-turbo.

    让我们借此机会向那些还不知道 GPT4 非常昂贵的人解释一下, 比 GPT 贵 30 倍 3.5 汽. 此外,GPT4 响应缓慢,因此应谨慎使用,仅在必要时使用.

    下载 4.7 从这里:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. 阿尔贝托 说:

    你好 Livio 和 Theremino 的所有开发人员. 我祝贺你所做的一切.

    我想分享一个事实,即我已经成功连接到theremino Iot Module (TTGO7版本1.3) 一个非常有趣的 I2C 探头, 至少对我来说. 这是带有 BME280 传感器的 Bosh 探头, 这是一个压力传感器, 温度和湿度. 我买的标本 (约10欧元) 品牌名称为 mikroBUS.

    显然,我已经修改了固件,使其正确读取,并在下面报告程序, 也许它作为一个额外的例子很有用.

    我与引脚建立了物理连接 21(国家药品监督管理局) 和 22(沙田至中环线) 这是 I2C 通信中 ESP32 的标准. 我已经在其他示例中看到,您可以使用 Wire 库随意更改它们, 我在这里没有成功,所以我就这样离开了他们.

    在 IotHAL 中,数据引脚设置为 “Gen_in_float”.

    电源电压为3.3V.

    再次感谢你. 有好的一天.
    Alberto

    固件:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber 说:

    你好 Livio
    Il sistema Theremino con gli aggiornamenti (ad esempio Graphs) è diventato veramente uno strumento unico. Complimenti.
    Una curiosità. Ho visto il vostro interesse per l’Intelligenza Artificiale, io stesso sto provando a crearmi dei GPT personalizzati su temi di mio interesse. Si potrebbe secondo voi far si che un gpt personalizzato crei un codice da incollare in theremino automation spiegandogli cosa volglio fare ?

    • 里维奥 说:

      Sarebbe una ottima cosa riuscirci ma non abbiamo ancora imparato ad addestrarli.
      Sarebbe bellissimo se si potesse addestrare un modello dandogli tutti i PDF che abbiamo scritto, ne abbiamo centinaia e poi potrebbe facilitare di molto l’uso delle nostre applicazioni.

      Tra poco pubblicheremo Theremino_LLM che non dipende più da OpenAI ma solo da modelli open source.
      E Theremino_LLM ascolta, parla, telefona, suona la musica, esegue i comandi domotici, 等…

      Però per ora ci limitiamo a usare quelli già pronti, che si trovano in questa pagina:
      https://ollama.com/library

      • geofaber 说:

        非常好, immaginavo che eravate sul pezzo.
        Nella mia ignoranza e con i primi tentativi la prima cosa che ho capito è che l’AI fa piu quello che vuole lei e non quello che vuoi tu e l’addestramento non è affatto chiaro, per lo meno quello che un semplice utente come può fare con ilcrea il tuo GPT”.

  6. geofaber 说:

    dentro a chatGPT c’è l’opzioneesplora GPTe li puoi farecrea
    li puoi nel tuo GPT personalizzato caricare file di riferimento, e anche istruzioni di riferimento.
    I feedback che invece gli dai durante la sessione vengono persi chiusa la sessione.
    Si può anche tramite le API interagire con l’esterno (ma questo per me è troppo complicato)
    Io ad esempio ne sto facendo uno per confrontare dei file di vibrazione, ma non c’è molta coerenza in quello che fa, gli smorzamenti ad esempio talolta li calcola in un modo talvola in un altro, sto cercando di limitarlo ad istruzioni piu precise

    • 里维奥 说:

      Capito, comunque noi ci stiamo staccando da OpenAI e in futuro facciamo solo cose Open Source con Ollama.

      OpenAI doveva essere “开放” ma poi ha fregato tutti e se vuoi usare le api le devi pagare. Quindi abbiamo deciso di abbandonarli.

  7. Geofabe 公司 说:

    和’ un ottima cosa, proverò a dare un occhio a Ollama

    • 里维奥 说:

      Se fai prove usa gemma2:2b che è veloce e leggero
      Tieni conto che tutto ti funzionerà in locale e quindi devi avere molta ram (最低 8 giga per i modelli più piccoli ma meglio 16, 32 或 64 千兆)
      Se vuoi usare i modelli più grandi oltre alla ram ci vorrebbe anche una scheda video recente che abilta CUDA su Ollama, altrimenti la CPU va al 90 100% e rispondono lentamente.

      Con gemma2:2b vai abbastanza veloce anche su macchine piccole e contiene già una quantità incredibile di informazioni, ho chiesto di tutto e sa tutto. Inoltre parla bene in tutte le lingue ed è molto simile a ChatGpt 3, il tutto in poco più di 2 千兆.

    • 里维奥 说:

      Se vuoi fare qualche prova puoi scaricare questa piccola applicazione che stiamo usando per provare le possibilità di Ollama
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • 毛里齐奥 说:

        你好 Livio.

        Ho provato a lanciare l’eseguibile, ma non capisco come farlo funzionare.
        Se premo ‘show model info’, mi appare una finestra di cmd.exe che diceollamanon è riconosciuto come comando interno o esterno,
        un programma eseguibile o un file batch.
        Ho provato a premere ‘start ollama server on this computer’, e nella finestra del programma mi appare ‘Now the Ollama server is running on this computer.

        To access this server from other devices:
        Leave the COM window open
        Use the IP of this computer, from the following list:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 Connessione alla rete locale (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 Connessione alla rete locale (LAN)* 1
        169.254.139.102 Connessione alla rete locale (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 无线上网’

        另外, spesso mi appare una finestra di ‘eccezione non gestita nell’applicazione

        Ho provato a scaricare e installare ollama, e l’installazione è andata a buon fine, ma non funziona ugualmente.
        Ora mi appare: Model not found, please download it and retry.

        Puoi scrivere qualche info in più?

        谢谢
        毛里齐奥

        • 里维奥 说:

          Prima devi installare ollama e credo che lo hai fatto
          Poi devi installare i modelli e poi funziona.

          Scegli gemma2:2b o un’altro piccolo nella casella dei modelli.
          Poi premiinstall modele aspetti che sia installato.

          Se un modello non c’è nella casella dei modelli,
          奖项 “edit model liste poi scegli nella pagina dei modelli
          e infine lo aggiungi alla lista.

          Se ancora così non riesci metti skype sul PC
          e chiamami come livio_enrico

        • geofaber 说:

          A me funziona.
          ma non sempre.

          ogni tanto compare anche a meModel not found, please download it and retryModel not found, please download it and retry
          Però se vado direttamente sul prompt di c;windows etc funziona

          • 里维奥 说:

            Hai installato il modello più piccolo e veloce?
            gemma2:2b

            Quanto ci mette a rispondere la prima volta?
            (quando risponde)

            Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.

            Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 或 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.

            • geofaber 说:

              si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 秒. Ma penso che questo sia legato al mio pc.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 G h z
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • 里维奥 说:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) 之 16 giga l’una e aggiungerle alla DIMM che hai.
                Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.

                Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
                E in tutti i casi fai attenzione al numero di PIN, al DDR 3 或 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.

                Riguardo ad addestrarli è tutto un altro discorso, noi per ora ne abbiamo già abbastanza per riuscire a farli funzionare bene nella app Theremino_LLM che sarà simile a Theremino_GPT (che fa di tutto, parla, ascolta, controlla i dispositivi domotici, suona musica e video ecc..)

  8. 里维奥 说:

    Spero che non stessi già usando la sezioneServerperché non funzionava ancora bene.
    La parte server permette di installa Ollama su un solo computer (possibilmente con molta ram e con CUDA) e poi utilizzarlo da tutti gli altri PC della rete.
    Ma se lavori su un PC solo non serve proprio.

    在版本 1.2 你从这里下载, anche la sezione server funziona bene:
    https://www.theremino.com/wp-content/uploads/files/Theremino_Ollama_v1.2.zip

留下回复 贾科莫 取消回复

您的电子邮件地址将不会发布.