Rédiger des questions ici, Commentaires, nouvelles idées et recommandations. D'écrire tout simplement le nom ou un surnom comme “J'ai” ou “Pippo”, laissant les autres cases vides.
Ajouter également le “Messagerie” ne sert qu'à distinguer avec certitude. Si vous souhaitez ajouter le mail le faire en toute confiance, Nous avons mieux à faire, Nous recueillons les adresses pour le spam.
Le Blog n’est pas tout sur cette page, vous allez dans le menu “Blog” Choisissez un sujet.
Si vous ne trouvez pas la rubrique blog approprié, entrer sur cette page et nous allons, trouver la bonne section, ou créer un nouveau.
Insérer des images et de mettre en évidence les messages blog
Insérer une image:
<img src ="HTTPS://www.xxxx.yyyy.ZZZZ.jpg" Alt ="Description de l'image"/>
Mettre en surbrillance une partie du texte:
<span style ="couleur d'arrière-plan: #ffff99;">TEXTE DE POINT CULMINANT</travée>
N'hésitez pas à faire des erreurs et expériences dans les messages. Si quelque chose se passe mal, Il suffit d'écrire un second poste, avec des corrections à faire. Nous allons faire les corrections, et enfin nous annulerons les messages de service.
Bonjour Livio, sempre tantissimi complimenti per il lavoro che svolgete.
Ho scaricato il theremino phonometer in quanto vorrei provare a fare qualche misura a livello acustico di una pompa di calore (unità esterna motocondensante) a vari regimi di funzionamento. Non trovo, se dico bene, indicazioni per quanto riguarda schemi/collegamenti del microfono ECM8000 verso il master nelle risorse scaricate.
Mi potresti dare indicazioni in merito?
Merci et bon travail.
Roberto
Il microfono ECM8000 va collegato alla sua apposita scheda audio U-PHORIA UM2 prodotta da Behringer
https://www.behringer.com/product.html?modelCode=P0118
https://www.behringer.com/product.html?modelCode=P0DZ3
Comparati con prodotti di simile qualità costano davvero poco.
Eventualmente potresti alimentare il microfono anche con altre schede audio di pari caratteristiche, ma sempre adatte ad alimentare microfoni a condensatore.
Se hai altri dubbi chiedi a Marco che ha fatto molte di queste centraline. Forse potrebbe anche darti componenti di seconda mano e sicuramente può darti buoni consigli e anche l’ultima versione dei programmi Meter e Elaboration che non abbiamo ancora pubblicato.
https://www.theremino.com/contacts/about-us#marco
Leggi anche i file PDF della documentazione.
Salut
Livio
Grazie molte Livio, contatterò Marco come da tuo suggerimento.
Bonsoir
Purtroppo Theremino GPT non funziona più, troveremo una soluzione ma nel frattempo per farlo funzionare dovete fare una vostra chiave presso OpenAI come spiegato nel file “Theremino_GPT_Help.pdf” che potete scaricare da qui:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
Cosa è successo?
Quelqu’un dans les jours qui ont suivi 7 dicembre a oggi ha usato GPT4 in modo “smodato” e in pochi giorni ha utilizzato un milione di token, par envoi groupé de la clé API associée à notre compte.
Profitons-en pour expliquer à ceux qui ne le savent pas encore que GPT4 est très cher, jusqu’à trente fois plus cher que GPT 3.5 turbo.
De plus, GPT4 est lent à répondre, il doit donc être utilisé avec parcimonie et uniquement si nécessaire.
———————
Nei prossimi giorni pubblicheremo una nuova versione di Theremino GPT, state attenti quindi a questi messaggi nella pagina delle novità.
Pour l'instant, comme déjà écrit, se volete usare Theremino GPT dovete fare una vostra chiave presso OpenAI.
Nous avons réinitialisé Theremino GPT pour qu’il fonctionne.
La version 4.7 Restaurez le fonctionnement sans avoir à créer votre propre clé (en laissant la case OpenAI-KEY vide).
Pour rappel, notre API-KEY ne fonctionne qu’avec GPT-3.5-turbo.
Profitons-en pour expliquer à ceux qui ne le savent pas encore que GPT4 est très cher, jusqu’à trente fois plus cher que GPT 3.5 turbo. De plus, GPT4 est lent à répondre, il doit donc être utilisé avec parcimonie et uniquement si nécessaire.
Télécharger 4.7 d'ici:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
Buongiorno Livio e a tutti gli sviluppatori di Theremino. Vi faccio veri complimenti per quanto fatto.
Volevo condividere il fatto che ho collegato con successo ad un theremino Iot Module (il TTGO7ver1.3) una sonda I2C molto interessante, au moins pour moi. Si tratta della sonda Bosh con sensore BME280, che è un sensore di pressione, temperatura e umidità. L’esemplare che ho comprato io (una decina di euro) è marchiata mikroBUS.
Ovviamente ho modificato il firmware affinché la legga correttamente e vi riporto qui sotto il programma, magari è utile come esempio ulteriore.
La connessione fisica l’ho fatta ai pin 21(SDA) et 22(SCL) che sono quelli standard per l’ESP32 nelle comunicazioni I2C. Ho visto che negli altri esempi li cambiate a piacimento con la libreria Wire, io qui non ci sono riuscito e quindi li ho lasciati così.
Nello IotHAL i Pin dei dati sono da impostare su “Gen_in_float”.
L’alimentazione è da 3.3V.
Vi ringrazio ancora. Bonne Journee.
Alberto
firmware:
// ----------------------------------- Do not remove ---------
#include "IotModule\IotModule.h"
cIotModule IotModule;
// -----------------------------------------------------------
#include “Wire.h”
#include “SPI.h”
#include “Adafruit_Sensor.h”
#include “Adafruit_BME280.h”
#define SEALEVELPRESSURE_HPA (1013.25)
Adafruit_BME280 bme; // I2C
float pressure, mbar_pressure;
// ========================================================================
// SETUP
// ========================================================================
void setup()
{
Serial.begin(9600);
// ------------------------------------ Do not remove ---------
IotModule.initialize();
// ------------------------------------------------------------
unsigned status;
// default settings
// collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
status = bme.begin(0x76);
if (!status)
{
Serial.println("indirizzo sbagliato");
}
}
// ========================================================================
// LOOP
// ========================================================================
void loop()
{
Serial.print(bme.readTemperature());
Serial.print("\n");
IotModule.genericWriteFloat(36, bme.readTemperature());
pressure = bme.readPressure();
mbar_pressure = pressure/100.0 ;
Serial.print(mbar_pressure);
Serial.print("\n");
IotModule.genericWriteFloat(39, mbar_pressure);
Serial.print(bme.readHumidity());
Serial.print("\n");
IotModule.genericWriteFloat(35, bme.readHumidity());
delay(100);
}
Bonjour Livio
Il sistema Theremino con gli aggiornamenti (ad esempio Graphs) è diventato veramente uno strumento unico. Complimenti.
Una curiosità. Ho visto il vostro interesse per l’Intelligenza Artificiale, io stesso sto provando a crearmi dei GPT personalizzati su temi di mio interesse. Si potrebbe secondo voi far si che un gpt personalizzato crei un codice da incollare in theremino automation spiegandogli cosa volglio fare ?
Sarebbe una ottima cosa riuscirci ma non abbiamo ancora imparato ad addestrarli.
Sarebbe bellissimo se si potesse addestrare un modello dandogli tutti i PDF che abbiamo scritto, ne abbiamo centinaia e poi potrebbe facilitare di molto l’uso delle nostre applicazioni.
Tra poco pubblicheremo Theremino_LLM che non dipende più da OpenAI ma solo da modelli open source.
E Theremino_LLM ascolta, parla, telefona, suona la musica, esegue i comandi domotici, etc.…
Però per ora ci limitiamo a usare quelli già pronti, che si trovano in questa pagina:
https://ollama.com/library
Très bien, immaginavo che eravate sul pezzo.
Nella mia ignoranza e con i primi tentativi la prima cosa che ho capito è che l’AI fa piu quello che vuole lei e non quello che vuoi tu e l’addestramento non è affatto chiaro, per lo meno quello che un semplice utente come può fare con il “crea il tuo GPT”.
Mais “crea il tuo GPT” dove lo stai facendo?
Su qualche pagina di OpenAI o altrove?
dentro a chatGPT c’è l’opzione “esplora GPT” e li puoi fare “crea”
li puoi nel tuo GPT personalizzato caricare file di riferimento, e anche istruzioni di riferimento.
I feedback che invece gli dai durante la sessione vengono persi chiusa la sessione.
Si può anche tramite le API interagire con l’esterno (ma questo per me è troppo complicato)
Io ad esempio ne sto facendo uno per confrontare dei file di vibrazione, ma non c’è molta coerenza in quello che fa, gli smorzamenti ad esempio talolta li calcola in un modo talvola in un altro, sto cercando di limitarlo ad istruzioni piu precise
Capito, comunque noi ci stiamo staccando da OpenAI e in futuro facciamo solo cose Open Source con Ollama.
OpenAI doveva essere “Ouvert” ma poi ha fregato tutti e se vuoi usare le api le devi pagare. Quindi abbiamo deciso di abbandonarli.
Et’ un ottima cosa, proverò a dare un occhio a Ollama
Se fai prove usa gemma2:2b che è veloce e leggero
Tieni conto che tutto ti funzionerà in locale e quindi devi avere molta ram (minimum 8 giga per i modelli più piccoli ma meglio 16, 32 ou 64 Giga)
Se vuoi usare i modelli più grandi oltre alla ram ci vorrebbe anche una scheda video recente che abilta CUDA su Ollama, altrimenti la CPU va al 90 100% e rispondono lentamente.
Con gemma2:2b vai abbastanza veloce anche su macchine piccole e contiene già una quantità incredibile di informazioni, ho chiesto di tutto e sa tutto. Inoltre parla bene in tutte le lingue ed è molto simile a ChatGpt 3, il tutto in poco più di 2 Giga.
Se vuoi fare qualche prova puoi scaricare questa piccola applicazione che stiamo usando per provare le possibilità di Ollama
https://www.theremino.com/files/Theremino_Ollama_V1.1.zip
Bonjour Livio.
Ho provato a lanciare l’eseguibile, ma non capisco come farlo funzionare.
Se premo ‘show model info’, mi appare una finestra di cmd.exe che dice “ollama” non è riconosciuto come comando interno o esterno,
un programma eseguibile o un file batch.’
Ho provato a premere ‘start ollama server on this computer’, e nella finestra del programma mi appare ‘Now the Ollama server is running on this computer.
To access this server from other devices:
– Leave the COM window open
– Use the IP of this computer, from the following list:
169.254.213.179 Ethernet
192.168.100.17 Ethernet
169.254.78.201 Connessione alla rete locale (LAN)
192.168.56.1 Ethernet 3
169.254.216.136 Connessione alla rete locale (LAN)* 1
169.254.139.102 Connessione alla rete locale (LAN)* 2
10.146.10.56 Talk2m-eCatcher
169.254.138.238 Talk2m-eCatcher
192.168.1.229 Une connexion Wi-Fi’
De plus,, spesso mi appare una finestra di ‘eccezione non gestita nell’applicazione’
Ho provato a scaricare e installare ollama, e l’installazione è andata a buon fine, ma non funziona ugualmente.
Ora mi appare: Model not found, please download it and retry.
Puoi scrivere qualche info in più?
Merci
Maurizio
Prima devi installare ollama e credo che lo hai fatto
Poi devi installare i modelli e poi funziona.
Scegli gemma2:2b o un’altro piccolo nella casella dei modelli.
Poi premi “install model” e aspetti che sia installato.
Se un modello non c’è nella casella dei modelli,
Prix “edit model list” e poi scegli nella pagina dei modelli
e infine lo aggiungi alla lista.
Se ancora così non riesci metti skype sul PC
e chiamami come livio_enrico
A me funziona.
ma non sempre.
ogni tanto compare anche a me “Model not found, please download it and retryModel not found, please download it and retry”
Però se vado direttamente sul prompt di c;windows etc funziona
Hai installato il modello più piccolo e veloce?
gemma2:2b
Quanto ci mette a rispondere la prima volta?
(quando risponde)
Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.
Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 ou 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.
si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 secondes. Ma penso che questo sia legato al mio pc.
Ma c’è modo di addestrarlo caricando informazioni o documenti ?
carateristiche del mio pc
Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
RAM installata 8,00 GB (6,94 GB utilizzabile)
Ci mette 7 8 secondi la prima volta.
Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?
La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) De 16 giga l’una e aggiungerle alla DIMM che hai.
Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.
Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
E in tutti i casi fai attenzione al numero di PIN, al DDR 3 ou 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.
Riguardo ad addestrarli è tutto un altro discorso, noi per ora ne abbiamo già abbastanza per riuscire a farli funzionare bene nella app Theremino_LLM che sarà simile a Theremino_GPT (che fa di tutto, parla, ascolta, controlla i dispositivi domotici, suona musica e video ecc..)
Spero che non stessi già usando la sezione “Server” perché non funzionava ancora bene.
La parte server permette di installa Ollama su un solo computer (possibilmente con molta ram e con CUDA) e poi utilizzarlo da tutti gli altri PC della rete.
Ma se lavori su un PC solo non serve proprio.
Dans la version 1.2 que vous télécharger ici, anche la sezione server funziona bene:
https://www.theremino.com/wp-content/uploads/files/Theremino_Ollama_v1.2.zip