ブログ

ここでの質問を書く, コメント, 推奨事項と新しいアイデア. 名前だけまたはのようなニックネームを作成するには “私” または “ピッポ”, その他のボックスを空白のまま.

また、追加、 “電子メール” 確実に区別するためにのみ提供しています. 追加したい場合、メールは自信を持ってそれを行う, 我々 が行うより良いものをあります。, 迷惑メールのアドレスを収集します。.

ブログはこのページ上のすべてではないです。, あなたがメニューに行く “ブログ” トピックを選択して、.

適切なブログのセクションを見つけることができない場合, このページで入力し、我々 はよ, 右のセクションを見つける, 新規に作成します.


画像を挿入し、ブログの記事を強調表示

図を挿入します。:

<img src ="HTTPS://www.xxxx.yyyy.zzzz.jpg" alt ="イメージの説明"/>

テキストの一部を強調表示します。:

<スタイルにまたがる ="背景色: #ffff99;">強調表示するテキスト</スパン>

記事のミスや実験をすること自由に感じ. 何かがうまくいかない場合, 2 番目のポストを書くだけ, 修正を行うと. 我々 は修正を行います、ついにサービス メッセージをキャンセルさせて頂きます.

  1. ロベルト 言う:

    こんにちはリビオ, あなたの仕事に対してはいつもたくさんの褒め言葉を.
    テルミノ蓄音計をダウンロードしたのは、ヒートポンプの音響レベルで測定してみたいと思います (結露ユニット室外機) さまざまな動作速度で. 見つかりません, 私が正しければ, ダウンロードしたリソースのマスターにECM8000するマイクロホンの回路図/接続に関する表示.
    これについて教えていただけますか??

    おかげで、良い仕事.

    ロベルト

    • リビオ 言う:

      マイクECM8000は、Behringer製の特別なU-PHORIAUM2サウンドカードに接続する必要があります
      https://www.behringer.com/product.html?modelCode=P0118
      https://www.behringer.com/product.html?modelCode=P0DZ3

      同様の品質の製品と比較して、コストはほとんどかかりません.

      最終的には、同じ特性の他のサウンドカードでマイクに電力を供給することもできます, ただし、コンデンサーマイクへの電力供給に常に適しています.

      他に疑問がある場合は、これらの制御ユニットの多くを製造しているマルコに尋ねてください. たぶん、それはあなたに中古のコンポーネントを与えるかもしれません、そして確かにそれはあなたに良いアドバイスを与えることができ、私たちがまだ公開していないメーターと精緻化プログラムの最新バージョンも提供することができます.

      https://www.theremino.com/contacts/about-us#marco

      ドキュメントのPDFファイルもお読みください.

      こんにちは
      リビオ

      • ロベルト 言う:

        どうもありがとうございましたリビオ, 私はあなたの提案に従ってマルコに連絡します.

        こんばんは

  2. リビオ 言う:

    残念ながら、Theremino GPT は機能しなくなりました, 解決策は見つかりますが、それまでの間、それを機能させるには、ここからダウンロードできる「Theremino_GPT_Help.pdf」ファイルで説明されているように、OpenAIで独自のキーを作成する必要があります:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    どうされました?
    以来の日々の誰か 7 12月から現在まで、GPT4は “不穏当な” そして、わずか数日で、100万トークンを使用しました, アカウントに関連付けられたAPIキーを一括送信する.

    この機会に、GPT4が非常に高価であることをまだ知らない人に説明しましょう, GPTの30倍も高価 3.5 ターボ.

    また、GPT4は反応が遅いため、控えめに、必要な場合にのみ使用する必要があります.

    ———————

    近日中に、テレミノGPTの新しいバージョンをリリースします, したがって、ニュースページでこれらのメッセージに注意してください.

    今のところ, すでに書かれて, Theremino GPTを使用する場合は、OpenAIで独自のキーを作成する必要があります.

  3. リビオ 言う:

    Theremino GPTをリセットして機能させました.

    バージョン 4.7 独自のキーを作成せずに復元操作 (OpenAI-KEYボックスを空白のままにします).

    Ricordiamo che la nostra API-KEY funziona solo con GPT-3.5-turbo.

    この機会に、GPT4が非常に高価であることをまだ知らない人に説明しましょう, GPTの30倍も高価 3.5 ターボ. また、GPT4は反応が遅いため、控えめに、必要な場合にのみ使用する必要があります.

    ダウンロード 4.7 ここから:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. AlbertoR (アルベルトアール) 言う:

    Buongiorno Livio e a tutti gli sviluppatori di Theremino. Vi faccio veri complimenti per quanto fatto.

    Volevo condividere il fatto che ho collegato con successo ad un theremino Iot Module (il TTGO7ver1.3) una sonda I2C molto interessante, 少なくとも私のため. Si tratta della sonda Bosh con sensore BME280, che è un sensore di pressione, temperatura e umidità. L’esemplare che ho comprato io (una decina di euro) è marchiata mikroBUS.

    Ovviamente ho modificato il firmware affinché la legga correttamente e vi riporto qui sotto il programma, magari è utile come esempio ulteriore.

    La connessione fisica l’ho fatta ai pin 21(SDA) と 22(SCL) che sono quelli standard per l’ESP32 nelle comunicazioni I2C. Ho visto che negli altri esempi li cambiate a piacimento con la libreria Wire, io qui non ci sono riuscito e quindi li ho lasciati così.

    Nello IotHAL i Pin dei dati sono da impostare suGen_in_float”.

    L’alimentazione è da 3.3V.

    Vi ringrazio ancora. よい一日を.
    Alberto

    ファームウェア:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber 言う:

    こんにちはリビオ
    Il sistema Theremino con gli aggiornamenti (ad esempio Graphs) è diventato veramente uno strumento unico. Complimenti.
    Una curiosità. Ho visto il vostro interesse per l’Intelligenza Artificiale, io stesso sto provando a crearmi dei GPT personalizzati su temi di mio interesse. Si potrebbe secondo voi far si che un gpt personalizzato crei un codice da incollare in theremino automation spiegandogli cosa volglio fare ?

    • リビオ 言う:

      Sarebbe una ottima cosa riuscirci ma non abbiamo ancora imparato ad addestrarli.
      Sarebbe bellissimo se si potesse addestrare un modello dandogli tutti i PDF che abbiamo scritto, ne abbiamo centinaia e poi potrebbe facilitare di molto l’uso delle nostre applicazioni.

      Tra poco pubblicheremo Theremino_LLM che non dipende più da OpenAI ma solo da modelli open source.
      E Theremino_LLM ascolta, parla, telefona, suona la musica, esegue i comandi domotici, など…

      Però per ora ci limitiamo a usare quelli già pronti, che si trovano in questa pagina:
      https://ollama.com/library

      • geofaber 言う:

        非常にいいです, immaginavo che eravate sul pezzo.
        Nella mia ignoranza e con i primi tentativi la prima cosa che ho capito è che l’AI fa piu quello che vuole lei e non quello che vuoi tu e l’addestramento non è affatto chiaro, per lo meno quello che un semplice utente come può fare con ilcrea il tuo GPT”.

  6. geofaber 言う:

    dentro a chatGPT c’è l’opzioneesplora GPTe li puoi farecrea
    li puoi nel tuo GPT personalizzato caricare file di riferimento, e anche istruzioni di riferimento.
    I feedback che invece gli dai durante la sessione vengono persi chiusa la sessione.
    Si può anche tramite le API interagire con l’esterno (ma questo per me è troppo complicato)
    Io ad esempio ne sto facendo uno per confrontare dei file di vibrazione, ma non c’è molta coerenza in quello che fa, gli smorzamenti ad esempio talolta li calcola in un modo talvola in un altro, sto cercando di limitarlo ad istruzioni piu precise

    • リビオ 言う:

      Capito, comunque noi ci stiamo staccando da OpenAI e in futuro facciamo solo cose Open Source con Ollama.

      OpenAI doveva essere “オープン” ma poi ha fregato tutti e se vuoi usare le api le devi pagare. Quindi abbiamo deciso di abbandonarli.

  7. ジオフェイブ 言う:

    と’ un ottima cosa, proverò a dare un occhio a Ollama

    • リビオ 言う:

      Se fai prove usa gemma2:2b che è veloce e leggero
      Tieni conto che tutto ti funzionerà in locale e quindi devi avere molta ram (最小値 8 giga per i modelli più piccoli ma meglio 16, 32 または 64 ギガ)
      Se vuoi usare i modelli più grandi oltre alla ram ci vorrebbe anche una scheda video recente che abilta CUDA su Ollama, altrimenti la CPU va al 90 100% e rispondono lentamente.

      Con gemma2:2b vai abbastanza veloce anche su macchine piccole e contiene già una quantità incredibile di informazioni, ho chiesto di tutto e sa tutto. Inoltre parla bene in tutte le lingue ed è molto simile a ChatGpt 3, il tutto in poco più di 2 ギガ.

    • リビオ 言う:

      Se vuoi fare qualche prova puoi scaricare questa piccola applicazione che stiamo usando per provare le possibilità di Ollama
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • マウリツィオ 言う:

        こんにちはリビオ.

        Ho provato a lanciare l’eseguibile, ma non capisco come farlo funzionare.
        Se premo ‘show model info’, mi appare una finestra di cmd.exe che diceollamanon è riconosciuto come comando interno o esterno,
        un programma eseguibile o un file batch.
        Ho provato a premere ‘start ollama server on this computer’, e nella finestra del programma mi appare ‘Now the Ollama server is running on this computer.

        To access this server from other devices:
        Leave the COM window open
        Use the IP of this computer, from the following list:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 Connessione alla rete locale (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 Connessione alla rete locale (LAN)* 1
        169.254.139.102 Connessione alla rete locale (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 Wi-Fi’

        さらに, spesso mi appare una finestra di ‘eccezione non gestita nell’applicazione

        Ho provato a scaricare e installare ollama, e l’installazione è andata a buon fine, ma non funziona ugualmente.
        Ora mi appare: Model not found, please download it and retry.

        Puoi scrivere qualche info in più?

        ありがとう
        マウリツィオ

        • リビオ 言う:

          Prima devi installare ollama e credo che lo hai fatto
          Poi devi installare i modelli e poi funziona.

          Scegli gemma2:2b o un’altro piccolo nella casella dei modelli.
          Poi premiinstall modele aspetti che sia installato.

          Se un modello non c’è nella casella dei modelli,
          賞品 “edit model liste poi scegli nella pagina dei modelli
          e infine lo aggiungi alla lista.

          Se ancora così non riesci metti skype sul PC
          e chiamami come livio_enrico

        • geofaber 言う:

          A me funziona.
          ma non sempre.

          ogni tanto compare anche a meModel not found, please download it and retryModel not found, please download it and retry
          Però se vado direttamente sul prompt di c;windows etc funziona

          • リビオ 言う:

            Hai installato il modello più piccolo e veloce?
            gemma2:2b

            Quanto ci mette a rispondere la prima volta?
            (quando risponde)

            Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.

            Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 または 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.

            • geofaber 言う:

              si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 秒. Ma penso che questo sia legato al mio pc.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • リビオ 言う:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) 差出人 16 giga l’una e aggiungerle alla DIMM che hai.
                Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.

                Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
                E in tutti i casi fai attenzione al numero di PIN, al DDR 3 または 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.

                Riguardo ad addestrarli è tutto un altro discorso, noi per ora ne abbiamo già abbastanza per riuscire a farli funzionare bene nella app Theremino_LLM che sarà simile a Theremino_GPT (che fa di tutto, parla, ascolta, controlla i dispositivi domotici, suona musica e video ecc..)

  8. リビオ 言う:

    Spero che non stessi già usando la sezioneServerperché non funzionava ancora bene.
    La parte server permette di installa Ollama su un solo computer (possibilmente con molta ram e con CUDA) e poi utilizzarlo da tutti gli altri PC della rete.
    Ma se lavori su un PC solo non serve proprio.

    バージョンで 1.2 ここからダウンロードすること, anche la sezione server funziona bene:
    https://www.theremino.com/wp-content/uploads/files/Theremino_Ollama_v1.2.zip

にコメントを残す theremino 返信をキャンセルします。

あなたのメール アドレスは公開されません。.