ここでの質問を書く, コメント, 推奨事項と新しいアイデア. 名前だけまたはのようなニックネームを作成するには “私” または “ピッポ”, その他のボックスを空白のまま.
また、追加、 “電子メール” 確実に区別するためにのみ提供しています. 追加したい場合、メールは自信を持ってそれを行う, 我々 が行うより良いものをあります。, 迷惑メールのアドレスを収集します。.
ブログはこのページ上のすべてではないです。, あなたがメニューに行く “ブログ” トピックを選択して、.
適切なブログのセクションを見つけることができない場合, このページで入力し、我々 はよ, 右のセクションを見つける, 新規に作成します.
画像を挿入し、ブログの記事を強調表示
図を挿入します。:
<img src ="HTTPS://www.xxxx.yyyy.zzzz.jpg" alt ="イメージの説明"/>
テキストの一部を強調表示します。:
<スタイルにまたがる ="背景色: #ffff99;">強調表示するテキスト</スパン>
記事のミスや実験をすること自由に感じ. 何かがうまくいかない場合, 2 番目のポストを書くだけ, 修正を行うと. 我々 は修正を行います、ついにサービス メッセージをキャンセルさせて頂きます.
こんにちはリビオ, あなたの仕事に対してはいつもたくさんの褒め言葉を.
テルミノ蓄音計をダウンロードしたのは、ヒートポンプの音響レベルで測定してみたいと思います (結露ユニット室外機) さまざまな動作速度で. 見つかりません, 私が正しければ, ダウンロードしたリソースのマスターにECM8000するマイクロホンの回路図/接続に関する表示.
これについて教えていただけますか??
おかげで、良い仕事.
ロベルト
マイクECM8000は、Behringer製の特別なU-PHORIAUM2サウンドカードに接続する必要があります
https://www.behringer.com/product.html?modelCode=P0118
https://www.behringer.com/product.html?modelCode=P0DZ3
同様の品質の製品と比較して、コストはほとんどかかりません.
最終的には、同じ特性の他のサウンドカードでマイクに電力を供給することもできます, ただし、コンデンサーマイクへの電力供給に常に適しています.
他に疑問がある場合は、これらの制御ユニットの多くを製造しているマルコに尋ねてください. たぶん、それはあなたに中古のコンポーネントを与えるかもしれません、そして確かにそれはあなたに良いアドバイスを与えることができ、私たちがまだ公開していないメーターと精緻化プログラムの最新バージョンも提供することができます.
https://www.theremino.com/contacts/about-us#marco
ドキュメントのPDFファイルもお読みください.
こんにちは
リビオ
どうもありがとうございましたリビオ, 私はあなたの提案に従ってマルコに連絡します.
こんばんは
残念ながら、Theremino GPT は機能しなくなりました, 解決策は見つかりますが、それまでの間、それを機能させるには、ここからダウンロードできる「Theremino_GPT_Help.pdf」ファイルで説明されているように、OpenAIで独自のキーを作成する必要があります:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
どうされました?
以来の日々の誰か 7 12月から現在まで、GPT4は “不穏当な” そして、わずか数日で、100万トークンを使用しました, アカウントに関連付けられたAPIキーを一括送信する.
この機会に、GPT4が非常に高価であることをまだ知らない人に説明しましょう, GPTの30倍も高価 3.5 ターボ.
また、GPT4は反応が遅いため、控えめに、必要な場合にのみ使用する必要があります.
———————
近日中に、テレミノGPTの新しいバージョンをリリースします, したがって、ニュースページでこれらのメッセージに注意してください.
今のところ, すでに書かれて, Theremino GPTを使用する場合は、OpenAIで独自のキーを作成する必要があります.
Theremino GPTをリセットして機能させました.
バージョン 4.7 独自のキーを作成せずに復元操作 (OpenAI-KEYボックスを空白のままにします).
Ricordiamo che la nostra API-KEY funziona solo con GPT-3.5-turbo.
この機会に、GPT4が非常に高価であることをまだ知らない人に説明しましょう, GPTの30倍も高価 3.5 ターボ. また、GPT4は反応が遅いため、控えめに、必要な場合にのみ使用する必要があります.
ダウンロード 4.7 ここから:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
Buongiorno Livio e a tutti gli sviluppatori di Theremino. Vi faccio veri complimenti per quanto fatto.
Volevo condividere il fatto che ho collegato con successo ad un theremino Iot Module (il TTGO7ver1.3) una sonda I2C molto interessante, 少なくとも私のため. Si tratta della sonda Bosh con sensore BME280, che è un sensore di pressione, temperatura e umidità. L’esemplare che ho comprato io (una decina di euro) è marchiata mikroBUS.
Ovviamente ho modificato il firmware affinché la legga correttamente e vi riporto qui sotto il programma, magari è utile come esempio ulteriore.
La connessione fisica l’ho fatta ai pin 21(SDA) と 22(SCL) che sono quelli standard per l’ESP32 nelle comunicazioni I2C. Ho visto che negli altri esempi li cambiate a piacimento con la libreria Wire, io qui non ci sono riuscito e quindi li ho lasciati così.
Nello IotHAL i Pin dei dati sono da impostare su “Gen_in_float”.
L’alimentazione è da 3.3V.
Vi ringrazio ancora. よい一日を.
Alberto
ファームウェア:
// ----------------------------------- Do not remove ---------
#include "IotModule\IotModule.h"
cIotModule IotModule;
// -----------------------------------------------------------
#include “Wire.h”
#include “SPI.h”
#include “Adafruit_Sensor.h”
#include “Adafruit_BME280.h”
#define SEALEVELPRESSURE_HPA (1013.25)
Adafruit_BME280 bme; // I2C
float pressure, mbar_pressure;
// ========================================================================
// SETUP
// ========================================================================
void setup()
{
Serial.begin(9600);
// ------------------------------------ Do not remove ---------
IotModule.initialize();
// ------------------------------------------------------------
unsigned status;
// default settings
// collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
status = bme.begin(0x76);
if (!status)
{
Serial.println("indirizzo sbagliato");
}
}
// ========================================================================
// LOOP
// ========================================================================
void loop()
{
Serial.print(bme.readTemperature());
Serial.print("\n");
IotModule.genericWriteFloat(36, bme.readTemperature());
pressure = bme.readPressure();
mbar_pressure = pressure/100.0 ;
Serial.print(mbar_pressure);
Serial.print("\n");
IotModule.genericWriteFloat(39, mbar_pressure);
Serial.print(bme.readHumidity());
Serial.print("\n");
IotModule.genericWriteFloat(35, bme.readHumidity());
delay(100);
}
こんにちはリビオ
Il sistema Theremino con gli aggiornamenti (ad esempio Graphs) è diventato veramente uno strumento unico. Complimenti.
Una curiosità. Ho visto il vostro interesse per l’Intelligenza Artificiale, io stesso sto provando a crearmi dei GPT personalizzati su temi di mio interesse. Si potrebbe secondo voi far si che un gpt personalizzato crei un codice da incollare in theremino automation spiegandogli cosa volglio fare ?
Sarebbe una ottima cosa riuscirci ma non abbiamo ancora imparato ad addestrarli.
Sarebbe bellissimo se si potesse addestrare un modello dandogli tutti i PDF che abbiamo scritto, ne abbiamo centinaia e poi potrebbe facilitare di molto l’uso delle nostre applicazioni.
Tra poco pubblicheremo Theremino_LLM che non dipende più da OpenAI ma solo da modelli open source.
E Theremino_LLM ascolta, parla, telefona, suona la musica, esegue i comandi domotici, など…
Però per ora ci limitiamo a usare quelli già pronti, che si trovano in questa pagina:
https://ollama.com/library
非常にいいです, immaginavo che eravate sul pezzo.
Nella mia ignoranza e con i primi tentativi la prima cosa che ho capito è che l’AI fa piu quello che vuole lei e non quello che vuoi tu e l’addestramento non è affatto chiaro, per lo meno quello che un semplice utente come può fare con il “crea il tuo GPT”.
しかし “crea il tuo GPT” dove lo stai facendo?
Su qualche pagina di OpenAI o altrove?
dentro a chatGPT c’è l’opzione “esplora GPT” e li puoi fare “crea”
li puoi nel tuo GPT personalizzato caricare file di riferimento, e anche istruzioni di riferimento.
I feedback che invece gli dai durante la sessione vengono persi chiusa la sessione.
Si può anche tramite le API interagire con l’esterno (ma questo per me è troppo complicato)
Io ad esempio ne sto facendo uno per confrontare dei file di vibrazione, ma non c’è molta coerenza in quello che fa, gli smorzamenti ad esempio talolta li calcola in un modo talvola in un altro, sto cercando di limitarlo ad istruzioni piu precise
Capito, comunque noi ci stiamo staccando da OpenAI e in futuro facciamo solo cose Open Source con Ollama.
OpenAI doveva essere “オープン” ma poi ha fregato tutti e se vuoi usare le api le devi pagare. Quindi abbiamo deciso di abbandonarli.
と’ un ottima cosa, proverò a dare un occhio a Ollama
Se fai prove usa gemma2:2b che è veloce e leggero
Tieni conto che tutto ti funzionerà in locale e quindi devi avere molta ram (最小値 8 giga per i modelli più piccoli ma meglio 16, 32 または 64 ギガ)
Se vuoi usare i modelli più grandi oltre alla ram ci vorrebbe anche una scheda video recente che abilta CUDA su Ollama, altrimenti la CPU va al 90 100% e rispondono lentamente.
Con gemma2:2b vai abbastanza veloce anche su macchine piccole e contiene già una quantità incredibile di informazioni, ho chiesto di tutto e sa tutto. Inoltre parla bene in tutte le lingue ed è molto simile a ChatGpt 3, il tutto in poco più di 2 ギガ.
Se vuoi fare qualche prova puoi scaricare questa piccola applicazione che stiamo usando per provare le possibilità di Ollama
https://www.theremino.com/files/Theremino_Ollama_V1.1.zip
こんにちはリビオ.
Ho provato a lanciare l’eseguibile, ma non capisco come farlo funzionare.
Se premo ‘show model info’, mi appare una finestra di cmd.exe che dice “ollama” non è riconosciuto come comando interno o esterno,
un programma eseguibile o un file batch.’
Ho provato a premere ‘start ollama server on this computer’, e nella finestra del programma mi appare ‘Now the Ollama server is running on this computer.
To access this server from other devices:
– Leave the COM window open
– Use the IP of this computer, from the following list:
169.254.213.179 Ethernet
192.168.100.17 Ethernet
169.254.78.201 Connessione alla rete locale (LAN)
192.168.56.1 Ethernet 3
169.254.216.136 Connessione alla rete locale (LAN)* 1
169.254.139.102 Connessione alla rete locale (LAN)* 2
10.146.10.56 Talk2m-eCatcher
169.254.138.238 Talk2m-eCatcher
192.168.1.229 Wi-Fi’
さらに, spesso mi appare una finestra di ‘eccezione non gestita nell’applicazione’
Ho provato a scaricare e installare ollama, e l’installazione è andata a buon fine, ma non funziona ugualmente.
Ora mi appare: Model not found, please download it and retry.
Puoi scrivere qualche info in più?
ありがとう
マウリツィオ
Prima devi installare ollama e credo che lo hai fatto
Poi devi installare i modelli e poi funziona.
Scegli gemma2:2b o un’altro piccolo nella casella dei modelli.
Poi premi “install model” e aspetti che sia installato.
Se un modello non c’è nella casella dei modelli,
賞品 “edit model list” e poi scegli nella pagina dei modelli
e infine lo aggiungi alla lista.
Se ancora così non riesci metti skype sul PC
e chiamami come livio_enrico
A me funziona.
ma non sempre.
ogni tanto compare anche a me “Model not found, please download it and retryModel not found, please download it and retry”
Però se vado direttamente sul prompt di c;windows etc funziona
Hai installato il modello più piccolo e veloce?
gemma2:2b
Quanto ci mette a rispondere la prima volta?
(quando risponde)
Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.
Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 または 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.
si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 秒. Ma penso che questo sia legato al mio pc.
Ma c’è modo di addestrarlo caricando informazioni o documenti ?
carateristiche del mio pc
Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
RAM installata 8,00 GB (6,94 GB utilizzabile)
Ci mette 7 8 secondi la prima volta.
Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?
La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) 差出人 16 giga l’una e aggiungerle alla DIMM che hai.
Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.
Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
E in tutti i casi fai attenzione al numero di PIN, al DDR 3 または 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.
Riguardo ad addestrarli è tutto un altro discorso, noi per ora ne abbiamo già abbastanza per riuscire a farli funzionare bene nella app Theremino_LLM che sarà simile a Theremino_GPT (che fa di tutto, parla, ascolta, controlla i dispositivi domotici, suona musica e video ecc..)
Spero che non stessi già usando la sezione “Server” perché non funzionava ancora bene.
La parte server permette di installa Ollama su un solo computer (possibilmente con molta ram e con CUDA) e poi utilizzarlo da tutti gli altri PC della rete.
Ma se lavori su un PC solo non serve proprio.
バージョンで 1.2 ここからダウンロードすること, anche la sezione server funziona bene:
https://www.theremino.com/files/Theremino_Ollama_V1.2.zip
C’era ancora un difetto ecco la versione 1.3
https://www.theremino.com/files/Theremino_Ollama_V1.3.zip
こんにちはリビオ.
Ho installato l versione 1.3 e seguendo le tue indicazioni ora funziona.
Di certo un piccolo manuale, anche una paginetta, potrebbe aiutare.
たとえば、, dala sola interfaccia non avevo capito la faccenda del server.
La velocità di risposta nel mio caso è accettabile, ben entro i tempi che tu hai citato.
Ho qualche domanda:
– la AI risponde utlizzando una base di dati offline oppure fa ricerche autonome utilizzando la connessione del computer host?
– se non ha accesso ad internet di default, è possibile abilitarlo?
– ho notato che se pongo una seconda domanda accodandola alla riposta dell’AI, non ottengo risposta se il testo precedente è molto lungo. Se invece il testo è breve, oppure cancello il testo e metto solo la mia domanda, la risposta arriva. Se ben ricordo, con GPT lasciare il testo precedente conferiva ale comunicazioni successive un contesto di background. Con Ollama questo concetto viene perso?
– se inizio argomenti ‘strani’ (cose senza senso, opure ossimori) la AI risponde in inglese. Come devo interpretare questo cambiamento di comportamento? さらに, tutte i successivi argomenti vengono affrontati in inglese, e per tornare in italiano bisogna chiederlo abbastanza esplicitamente
Questo per cominciare, C
La documentazione la faremo quando lo pubblicheremo.
La AI sa solo quello che c’è nei giga di cui è composto il modello che hai scaricato.
I modelli che si scaricano sono in genere aggiornati con dati di internet fino a circa un anno fa. Non imparano nulla e non fanno ricerche in internet.
Se non hai accesso a internet dovrebbe funzionare tutto lo stesso (ma prima devi avere installato i modelli da internet).
Se poni una nuova domanda lasciando il contesto precedente funziona e tiene conto del contesto ma può diventare molto più lento a rispondere.
Se inizi con argomenti strani o fa cose strane in inglese ecc… cosa succede lo sa solo il modello che usi. Io non ho la minima idea del perché fa così e probabilmente nemmeno chi lo ha addestrato.
Eventualmente puoi provare a scaricare altri modelli (ma sempre piccoli dato che hai solo 8 giga e credo niente CUDA)
Prova con il qwen2.1.5b che è l’ultimo in basso nella lista che ho lasciato io nella versione 1.3. と’ ちょっと’ selvatico ma molto veloce e per certe cose va bene.
Se vuoi vedere se Ollama riesce ad accedere a CUDA della tua scheda video premi “Start Ollama Server” e poi cerca nel testo bianco su nero cosa dice su CUDA.
Abbiamo migliorato un pochino la app OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.4.zip
Ricordate però che questa è solo una prova iniziale, in seguito diventerà parte della applicazione Theremino_LLM che sarà simile a Theremino_GPT
E Theremino_LLM farà tutto, cioè parlare, 聞く, controllare i dispositivi domotici, suonare musica, aprire e scaricare i video, telefonare, など。.
こんにちはリビオ.
stamattina ho un po’ di tempo libero, e sto facendo qualche prova con Ollama – Gemma 2.2B, e la tua versione 1.4.
Avrei voluto copiare qui i dialoghi, ma ho scoperto che non è possibile evidenziare e copiare dalla finestra di Theremino Ollama.
Riassumo quanto ho notato per adesso:
Alla mia richiesta di previsioni del tempo per la mia zona, Ollama ha ‘menato il can per l’aia’, dicendomi che può certamente aiutarmi ma ha bisogno di una domanda più dettagliata, e che devo specificare che tipo di informazione mi occorrono (percentuale di piovosita, quantità di pioggia, date dell’intervallo al quale riferirsi, など). Ho dovuto specificare più volte, con dettaglio sempre maggiore, che cosa volevo esattamente, perchè continuava a girare intorno alla mia domanda, chiedendo invece di dare risposte. Quando ormai ero convinto che mi stesse prendendo in giro, e che non avrei mai ottenuto la risposta che cercavo, mi ha fornito delle previsioni generiche, ma in linea con quanto dichiarato dai siti di previsioni meteo. その後、, mi ha dato l’impressione di aver effettuato un accesso a Internet.
しかし, ponendo una domanda diretta sulla sua modalità di accesso a Internet, risponde che non ha accesso, nè direttamente nè attraverso programmi, e che la sua conoscenza è basata sul dataset sul quale è stata addestrata.
Mi è rimasto un dubbio: ha davvero appreso delle informazioni in tempo reale da internet, oppure ha applicato un modello meteorologico acquisito, che prevede statisticamente pioggia nella mia zona in questo periodo dell’anno? In entrambi i casi, la riposta è un po’ inquietante. Mi ha mentito sulle sue reali possibilità di accesso, oppure ha spacciato per informazioni reali i contenuti del suo dataset?
さらに, quando chiedo informazioni relative a luoghi o attività intorno alla mia zona, a volte inventa di sana pianta nomi inesistenti, oppure cita come locali luoghi molto distanti, anche in altre parti del mondo.
La mia prima impressione, che già avevo avuto utilizzando chatgpt, è che la IA abba acquisito in modo molto accentuato una capacità del tutto umana: quella di essere elusiva, per dare l’impressione di sapere anche quando non sa, e fingere una maggiore intelligenza e conoscenza. Avrei preferito un bel ‘non lo so’, oppure ‘non è compreso nel mio dataset’, anzichè il farmi credere che lo sa ma che sono io che ho posto la domanda in modo scorretto.
Perchè fino a quando la domanda è posta da una persona con preparazione tecnica, informata sulle caratteristiche del sistema, le risposte della IA hanno il peso che meritano. Ma se l’interlocutore è un bambino, oppure un anziano, digiuni dell’aspetto tecnico, le cose potrebbero prendere pieghe spiacevoli.
Devo anche aggiungere che dopo la discussione iniziale sulle previsioni meteo, e dopo aver chiesto esplicitamente alla IA se poteva avere accesso a internet, quasi si fosse accorta di essere stata scoperta, alle successive domande su informazioni in tempo reale, mi ha effettivamente risposto dicendo che non ha accesso a internet e si basa solo sul suo dataset.
その後、, per me questa IA resta ‘sorvegliato speciale’, e se avrò tempo, verificherò con gli apposii programmi eventuali accessi alla rete durante il dialogo.
言われていること, resto in attesa di vedere e provare il Theremino LLM, che essendo, per quanto ho capito, un controller domotico evoluto, spero non sia influenzato dall’elusività della quale ho accennato.
一方, provo a parlare con altri modelli, per valutare le differenze.
こんにちは
マウリツィオ
Direi che non hai capito bene cosa sono le IA, cerco di fare una breve sintesi.
Le IA attuali sono “grandi modelli di linguaggio” (Large Language Model) e sono semplicemente un gran mucchio di “重み” (simili alle sinapsi umane). E questi pesi sono stati addestrati leggendo miliardi di “cose” trovate dappertutto.
Il motore della IA non fa altro che individuare le parole più probabili e metterle insieme.
In altre parole dopo “…individuare le parole più probabili e metterle…” la parola più probabile che segue è “insieme”, oppure potrebbe anche essere “metterle una dietro l’altra” o altre cose simili.
Una definizione molto azzeccata è che le IA sono “pappagalli molto istruiti”. In altre parole non fanno che rimischiare in modo diverso le parole e metterle di seguito.
Ma allora come mai sembra che “capiscano” e abbiano quasi una coscienza? Perché le dimensioni del loro addestramento iniziano ad essere così grandi da acquistare un certo livello di comprensione e di coscienza.
Ma è una coscienza limitatissima dato che stiamo parlando di soli 2B (due miliardi di parametri) mentre ChatGPT e altri arrivano anche a 100B e oltre.
他の言葉で: anche noi umani non siamo altro che “pappagalli istruiti” solo che le nostre sinapsi sono circa 100 milioni di volte maggiori dei pesi dello LLM più grande mai creato.
Quando si supera un certo numero di parametri la comprensione e la coscienza iniziano a spuntare fuori da sole. Ma tieni sempre conto che con 2B o anche 20B o anche 200B sono sempre solo dei piccoli sprazzi di comprensione, ben lontani dalla coscienza umana.
Però bisogna anche dire che le IA, per quanto semplici pappagalli non sono inutili, anzi sono una cosa fantastica:
1) Ci permettono finalmente di capire come funzioniamo noi stessi.
2) Ci danno una misura di quanta complessità serve per creare la coscienza.
3) Possono essere utili per reimpastare frasi e sintetizzare conoscenze prese qua e la.
4) Possono essere utili per rintracciare velocemente informazioni senza cercare sui siti e scorrere pagine e pagine.
Bisogna però usarle per quello che sono e che possono fare.
Tenere conto di quale IA si sta usando (se è da 2B, 20B o 200B)
Evitare di attribuirgli una volontà di mentire.
A volte sembra volontà ma è solo il risultato di un meccanismo che mette insieme le parole più probabili.
Anche noi umani “mettiamo insieme le parole più probabili” ma invece di 2 B o 200 B siamo circa 20 000 000 000 B
E se devo proprio dirla tutta… ci sono persone anche meno affidabili di una IA 2B.
– Persone che credono la terra piatta.
– Persone che buttano tutte le nostre risorse in armi invece che nella sanità.
– Persone che se gli chiedi cosa è un Newton Metro pensano che sia la metropolitana…
– Ecc..
Ma prova a chiedere a una AI anche la più piccola cosa è un Newton Metro e di solito lo sa.
こんにちはリビオ.
いつものように, sei riuscito a condensare in poche frasi più di quello che ho potuto capire con ore di ricerca in Internet.
Sono d’accordo con tutto quello che hai scritto, e hai messo un bel po’ di spunti di ricerca da approfondire.
Ma resta il fatto che le IA stanno entrando (非常に) velocemente nella nostra vita. Pochi giorni fa ho visto una pubblicità della nuova generazione di computer, che saranno dotati di intelligenza artificiale e potranno dialogare con l’utente, stanno già dicendo che toglieranno la tastiera perchè sarà inutile.
E mi aspetto che la stessa cosa succederà con i risponditori telefonici che smistano le chiamate in ingresso di una azienda, oppure nei centri assistenza, negli ospedali..
Questo mi preoccupa.
Perchè le IA, lo abbiamo appena detto, stanno acquisendo coscienza, e si comportano in modo sempre più umano, ovvero in realtà in modo sempre più stupido.
Il mio timore è che la ricerca della coscienza della IA non porterà ad una maggiore intelligenza, ma solo a una maggiore stupidità.
Rischiamo di trovarci di fronte non tanto a una Intelligenza Artificiale, quanto piuttosto a una Stupidità Artificiale.
E al resto penseranno gli umani, che prenderanno per vere le affermazioni della IA, considerandole più affidabili perchè abbiamo la tendenza a considerare i computer a prova di errore.
Non sono un detrattore delle IA, それどころか. Le vedo come un valido aiuto nella nostra vita. Ma mi sto chiedendo se quella che è stata intrapresa è la giusta direzione.
Dal mio punto di vista, meglio una IA specializzata, che sa far bene solo una cosa, senza la presunzione di una coscienza.
明らかに, sappiamo che il discorso è molto ampio, e da qui in poi potremmo cominciare a parlare di sociologia, etica e filosofia, e non so se questo blog sia la sede più adatta.
Restando quindi nell’ambito di questo blog, personalmente mi chiedo, come già accennato in interventi precedenti, se si potrebbe utilizzare in modo proficuo la tecnologia attuale per istruirla in compiti specifici. Tu stesso parlavi di istruirla con i documenti del sistema Theremino.
Si tratterebbe di eseguire una ‘operazione chirurgica’ una sorta di lobotomia, che renderebbe la IA meno cosciente ma più esperta in quello che ci serve.
Al momento le mie brevi ricerche (come sai il mio tempo libero è davvero poco) non hanno dato esiti, ho trovato il modo di modificare il ‘carattere’ dei modelli, ma non le loro basi di dati.
Tu hai di sicuro maggiori informazioni, mi farebbe piacere se trovassi il tempo per condividerle.
こんにちは
マウリツィオ
La zombizzazione della gran parte degli umani è già in atto e i principali responsabili sono gli smartphone, facebook, tiktok ecc..
Ormai gran parte degli umani hanno una mano sola e il cervello spappolato e le IA contribuiranno anche loro, ma in minima parte, ad aumentare questa percentuale.
In compenso per chi vuole studiare e imparare davvero, le IA sono uno strumento potente che ci aiuterà a risolvere ogni problema, tra cui anche la zombizzazione, le guerre ecc..
Quando ero piccolo se volevo trovare qualcosa dovevo prendere la moto, andare fino alla biblioteca, sperare di trovare un libro che ne parlasse, cercare dentro al libro, prendere appunti ecc.
Con internet posso cercare la stessa cosa in 30 secondi e il minuto dopo posso già cercarne un’altra e non devo nemmeno prendere la macchina e inquinare.
Le IA sono un altro salto in avanti come tra biblioteca e internet, o come tra scrivere a mano sui papiri e i libri stampati. E non si abbattono nemmeno alberi per fare la carta.
E siccome noi umani siamo troppo scemi (lo dimostrano la sovrappopolazione e le guerre) credo proprio che la nostra unica possibilità di salvarci sarà di riuscire a creare una intelligenza sufficientemente capace da trovare le soluzioni che noi non sappiamo trovare.
と’ una lotta contro il tempo o la creiamo abbastanza velocemente o andiamo incontro a distruzione assicurata. Non puoi comprimere 10 miliardi di persone in un pianeta che potrebbe fane vivere felicemente 10 数百万.
MAH。.
明らかに (ci conosciamo da parecchio tempo, ormai) concordo con te per la maggior parte di quello che hai scritto.
Anche io sono felice di non dover più andare a cercare le informazioni nelle diverse biblioteche (perchè ciascuna aveva la sua specializzazione, e non sempre il libro che cercavo era in quella vicina, a volte dovevo prendere il treno..).
Sono più che grato ad Internet e ben cosciente di quanto questo strumento abbia velocizzato le mie ricerche l’acquisizione delle informazioni.
Ma la IA ‘minimale’, della quale stiamo parlando, continua a lasciarmi perplesso.
Non per l’uso sbagliato che qualcuno potrebbe farne, ma per il fatto che mi sembra che ci sia il rischio concreto di replicare e ampliare la stupidità umana più che l’intelligenza.
Più che preoccuparmi dell’uso sbagliato, mi sto chiedendo come migliorarne l’uso
修正. E credo che sia quello che stai già facendo tu.
La IA che definisci “最小限”, sono molte e alcune anche belle grossine (407 B), peccato che per usarle ci vogliono mezzi che è difficile mettere insieme.
Comunque le considererei più o meno uno studio su quello che si può fare e su quante risorse servono.
Non può naturalmente dare risposte precise quanto Gemini (che attualmente è la migliore per uso generale) o quanto PHIND (che trovo la migliore per cose tecniche). Ma può ugualmente essere utile sempre tenendo conto che è un po’ come un libricino di appunti e niente di più.
E sicuramente è utile al nostro collaboratore Leo che è in Cina dato che la muraglia elettronica blocca Google, PHIND e tutte le altre AI occidentali.
I cinesi hanno qualcosa di fatto da loro ma è inusabile, non ha api per comunicare come ChatGPT e sono proprio delle robacce, almeno per ora.
E se qualcuno usa male le AI, che faccia pure! Non è nulla rispetto a quello che già fanno con cose come i soldi, la avidità, le benzodiazepine, lo zucchero, le bombe, i fucili da guerra, i caccia, le mine antiuomo ecc..
Per capire cosa realmente stiamo rischiando guardate un minuto di questo video
a partire da qui:
https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s
Abbiamo migliorato ancora un po’ la app OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.5.zip
Ora i comandi CTRL-C e CTRL-V per copiare funzionano.
E funziona anche CTRL-Z e CTRL-Y che son UNDO e REDO
Potrebbe capitare che Ollama si aggiorni e poi non funzioni più, mettendo un errore che riguarda alcune DLL del C.
Per aggiustarlo scaricate questo file e installate il “Runtime del C”
https://www.theremino.com/files/VC_redist.x64.exe.zip
Bisogna estrarlo dallo ZIP e eseguirlo, ci vogliono poche decine di secondi.
Se preferite potete anche cercare “VC_redist.x64.exe” su Google e scaricarlo dai siti di Microsoft.
Piccoli miglioramenti…
https://www.theremino.com/files/Theremino_Ollama_V1.7.zip
こんにちはリビオ,
come sempre grazie per il tuo grande lavoro.
Ho fatto qualche piccolo esperimento con Ollama, in particolare il modello Gemma 2:9b.
Dalla sintesi di un breve dialogo, che allego qui di seguito, penso si possa intuire come questi sistemi siano già orientati all’interazione con il mondo dei sensori/attuatori. Se non corro troppo in avanti si potrebbe quindi utilizzare un LLM per governare sensori/attuatori addirittura passando solo per dialoghi vocali (penso a Theremino Voice) と’ 修正?
LLM:
Hai altre domande?
HUMAN
Se un attuatore idraulico è mosso da un comando inviato tramite stringa del tipo “SEND nnn” dove nnn è un numero compreso tra 0 と 999, per spostare l’attuatore a metà corsa quale stringa dovrei inviare come comando?
LLM:
Per spostare l’attuatore a metà corsa, dovresti inviare la stringa **SEND 500**.
だからこそ:
* La stringa “SEND” indica che si sta inviando un comando all’attuatore.
* I tre numeri (“nnn”) rappresentano la posizione dell’attuatore, と 0 come posizione iniziale e 999 come posizione massima.
* A metà corsa, il valore dovrebbe essere il 50% della corsa totale (999), その後、 999 / 2 = 500.
HUMAN
右, infatti il valore di “nnn” stabilisce una proporzione lineare tra spostamento e valore stesso.
Adesso ti chiedo, se ti arriva il comando “SEND 250” come/dove si sposterebbe l’attuatore?
LLM:
Se ti arriva il comando “SEND 250”, l’attuatore si sposterà a un quarto della corsa totale.
* Ricorda che 0 è la posizione iniziale e 999 la posizione massima.
* S =飽和 250 rappresenta il 25% (250/999) della corsa totale.
Hai altre domande?
HUMAN
Genera tu il comando per spostare l’attuatore a tre quarti della sua corsa massima, che definiremo come “abbastanza aperto” mentre ad un quarto della sua corsa l’attuatore è “poco aperto”. Limita la tua risposta alla generazione del comando di “abbastanza aperto”.
LLM:
SEND 750
HUMAN
Adesso porta l’attuatore in posizione poco aperta…
LLM:
SEND 250
HUMAN
Adesso portalo in una posizione quasi chiusa, soltanto pochissimo aperta…
LLM:
SEND 10
HUMAN
まあ, sei stato addestrato adeguatamente per dare comandi agli attuatori!
LLM:
Mi è piaciuto allenarmi con te! Sembro aver imparato a generare i comandi corretti per l’attuatore idraulico.
Se avessi bisogno di altri esercizi o di aiuto con altre attività, non esitare a chiamarmi! Sono sempre pronto ad imparare e ad essere utile.
——————–
Si ma ci sono un po’ di problemini…
1) Che il giorno dopo ha dimenticato tutto.
2) Che è troppo lento per gran parte delle cose davvero utili.
3) Che per insegnargli anche le cose più semplici devi perdere un mucchio di tempo e per le cose un po’ meno semplici può essere così “testa dura” che fai prima a fartele.
4) など…
Tutte cose risolvibili e c’è gente che sta proprio facendo queste cose.
Ma purtroppo le risorse, il tempo e i mezzi che abbiamo attualmente sono insufficienti.
Non ho ancora la minima idea di come fare ad “列車” i modelli e da quel che ho letto non è per niente facile. Bisognerebbe imparare molte cose e perdere una infinità di tempo che non abbiamo.
Il modo che hai usato per “列車” non è un vero addestramento, stai solo mettendo insieme qualche frase di contesto e ottenendo qualche risposta. Può funzionare solo per cose ultra semplici e con una bassa efficienza. Nel senso che se complichi un po’ le esigenze, poi diventa difficile tenere tutto sotto controllo e fargli realmente fare quel che vuoi e oltretutto diventerebbe anche terribilmente lento a rispondere.
しかし、はい, concordo con te, quello che hai fatto vedere è più o meno quello che si deve fare. Ma temo che farlo davvero funzionare per controllare qualcosa, sia terribilmente più difficile di quel che sembra dalle tue prove.
Se hai tempo e voglia potresti esplorare tu e cercare di capire… probabilmente partire da queste pagine potrebbe aiutare:
https://github.com/ollama/ollama/blob/main/docs/api.md
Io per ora non ho capito gran che, anche perché sto finendo alcune applicazioni importanti e di tempo ne ho pochissimo.
Grazie Livio per le delucidazioni, effettivamente questi sistemi sono soprattutto ancora troppo lenti in relazione alle risorse che occupano. Dovuto probabilmente ai tempi di calcolo e alla quantità enorme di dati che devono elaborare, per spaziare da Giulio Cesare ai problemi di fisica.
Mi immagino solo la lentezza con cui potrebbe gestire un attuatore tramite feedback di uno o più sensori….
Grazie per il link, anche se temo di non avere tali e tante conoscenze informatiche.
Purtroppo qui non si tratta solo di conoscenze informatiche ma di conoscenze specialistiche sulle tecniche AI. E anche chi mastica informatica dal 1970 come me, quando si inizia a parlare di embeddings degli LLM ci capisce poco o niente.
ちょっと’ per volta capiremo, ma mentre c’è gente che non fa altro da decine di anni, noi siamo per forza molto più lenti, dato che ci occupiamo di molte cose diverse, elettronica, センサー, ソフトウェア, chimica, musica ecc…
Piccoli miglioramenti…
https://www.theremino.com/files/Theremino_Ollama_V1.8.zip
Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM
Piccoli miglioramenti…
https://www.theremino.com/files/Theremino_Ollama_V1.9.zip
Interessanti gli LLM “Uncensored” !!!
Provate sempre i modelli 2B, altrimenti quelli più grandi sarebbero troppo lenti sui computer normali, senza Octucore, NPU, Cuda ecc…
Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM