Scrie aici intrebari, Comentarii, Recomandari si idei noi. Pentru a scrie doar numele sau un pseudonim ca “Am” sau “Pippo”, lăsând celelalte rubrici necompletate.
De asemenea, adăuga “E-mail” serveşte doar pentru a distinge cu certitudine. Dacă doriţi să adăugaţi mail face acest lucru cu încredere, Avem lucruri mai bune de a face, Colectăm adresele de spam-ul.
Blog-ul nu este tot pe aceasta pagina, te duci la meniul “Blog” Alegeţi un subiect.
Dacă nu puteţi găsi în secţiunea corespunzătoare blog, Introduceţi pe această pagină şi vom, Găsiţi secţiunea din dreapta, sau creaţi o nouă.
Insera imagini şi de a evidenţia în blog
Inserați o imagine:
<img src ="HTTPS://www.xxxx.YYYY.zzzz.jpg" alt ="Descrierea imaginii"/>
Evidenţiaţi o porţiune de text:
<stil de control ="culoare de fundal: #FFFF99;">TEXT PENTRU A EVIDENŢIA</durata de>
Simţiţi-vă liber să facă greşeli şi experimente în mesaje. Dacă ceva nu merge bine, doar scrie un post al doilea, cu corecturi pentru a face. Vom face corecţii, şi în cele din urmă vom anula serviciul de mesaje.
Bună ziua Livio, Întotdeauna multe complimente pentru munca pe care o faci.
Am descărcat fonometrul theremino deoarece aș dori să încerc să fac câteva măsurători la nivelul acustic al unei pompe de căldură (Unitate de condensare unitate exterioară) la diferite viteze de operare. Nu găsesc, Dacă am dreptate, Indicații privind schemele/conexiunile microfonului ECM8000 la master în resursele descărcate.
Ați putea să-mi dați câteva informații despre acest lucru??
Vă mulţumim şi bun job.
Roberto
Microfonul ECM8000 trebuie să fie conectat la placa sa specială de sunet U-PHORIA UM2 fabricată de Behringer
https://www.behringer.com/product.html?modelCode=P0118
https://www.behringer.com/product.html?modelCode=P0DZ3
În comparație cu produsele de calitate similară, acestea costă foarte puțin.
În cele din urmă, puteți alimenta microfonul și cu alte plăci de sunet cu aceleași caracteristici, dar întotdeauna potrivit pentru alimentarea microfoanelor cu condensator.
Dacă aveți alte îndoieli, întrebați-l pe Marco cine a făcut multe dintre aceste unități de control. Poate că vă poate oferi și componente second-hand și cu siguranță vă poate oferi sfaturi bune și, de asemenea, cea mai recentă versiune a programelor de măsurare și elaborare pe care nu le-am publicat încă.
https://www.theremino.com/contacts/about-us#marco
Citiți și fișierele PDF ale documentației.
bună
Livio
Mulțumesc foarte mult Livio, Îl voi contacta pe Marco conform sugestiei dvs..
Buna seara
Din păcate, Theremino GPT nu mai funcționează, vom găsi o soluție, dar între timp, pentru a face să funcționeze, trebuie să vă creați propria cheie la OpenAI, așa cum este explicat în fișierul "Theremino_GPT_Help.pdf" din care puteți descărca aici::
https://www.theremino.com/downloads/intelligenza-artificiale#openai
Ce s-a întâmplat?
Cineva în zilele care au trecut 7 Decembrie până în prezent a folosit GPT4 într-un mod care “necumpătat” Și în doar câteva zile, a folosit un milion de jetoane, prin trimiterea în bloc a cheii API asociate contului nostru.
Să profităm de această ocazie pentru a explica celor care nu știu încă că GPT4 este foarte scump, de până la treizeci de ori mai scump decât GPT 3.5 Turbo.
În plus, GPT4 răspunde lent, deci ar trebui utilizat cu moderație și numai dacă este necesar.
———————
În zilele următoare, vom lansa o nouă versiune a Theremino GPT, Așa că fiți atenți la aceste mesaje pe pagina de știri.
De acum, aşa cum deja scris, dacă doriți să utilizați Theremino GPT, trebuie să vă creați propria cheie la OpenAI.
Am resetat Theremino GPT pentru a funcționa.
Versiunea 4.7 Restabiliți operațiunea fără a fi nevoie să vă creați propria cheie (lăsând caseta OpenAI-KEY necompletată).
Ca un memento, API-KEY-ul nostru funcționează numai cu GPT-3.5-turbo.
Să profităm de această ocazie pentru a explica celor care nu știu încă că GPT4 este foarte scump, de până la treizeci de ori mai scump decât GPT 3.5 Turbo. În plus, GPT4 răspunde lent, deci ar trebui utilizat cu moderație și numai dacă este necesar.
Descărcați versiunea 4.7 de aici:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
Bună ziua Livio și toți dezvoltatorii Theremino. Vă felicit cu adevărat pentru ceea ce ați făcut.
Am vrut să împărtășesc faptul că m-am conectat cu succes la un modul IoT (The TTGO7ver1.3) o sondă I2C foarte interesantă, cel putin pentru mine. Aceasta este sonda Bosh cu senzor BME280, care este un senzor de presiune, Temperatura și umiditatea. Specimenul pe care l-am cumpărat (aproximativ zece euro) este marca mikroBUS.
Evident că am modificat firmware-ul astfel încât să-l citească corect și raportez programul mai jos, poate este util ca un exemplu suplimentar.
Am făcut conexiunea fizică cu pinii 21(SDA) şi 22(SCL) care sunt cele standard pentru ESP32 în comunicațiile I2C. Am văzut că în celelalte exemple le puteți schimba după bunul plac cu biblioteca Wire, de fapt, aceste sisteme sunt încă prea lente în raport cu resursele pe care le ocupă.
Nello IotHAL i Pin dei dati sono da impostare su “Gen_in_float”.
L’alimentazione è da 3.3V.
Vi ringrazio ancora. o zi bună.
Alberto
firmware-ul:
// ----------------------------------- Do not remove ---------
#include "IotModule\IotModule.h"
cIotModule IotModule;
// -----------------------------------------------------------
#include “Wire.h”
#include “SPI.h”
#include “Adafruit_Sensor.h”
#include “Adafruit_BME280.h”
#define SEALEVELPRESSURE_HPA (1013.25)
Adafruit_BME280 bme; // I2C
float pressure, mbar_pressure;
// ========================================================================
// SETUP
// ========================================================================
void setup()
{
Serial.begin(9600);
// ------------------------------------ Do not remove ---------
IotModule.initialize();
// ------------------------------------------------------------
unsigned status;
// default settings
// collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
status = bme.begin(0x76);
if (!status)
{
Serial.println("indirizzo sbagliato");
}
}
// ========================================================================
// LOOP
// ========================================================================
void loop()
{
Serial.print(bme.readTemperature());
Serial.print("\n");
IotModule.genericWriteFloat(36, bme.readTemperature());
pressure = bme.readPressure();
mbar_pressure = pressure/100.0 ;
Serial.print(mbar_pressure);
Serial.print("\n");
IotModule.genericWriteFloat(39, mbar_pressure);
Serial.print(bme.readHumidity());
Serial.print("\n");
IotModule.genericWriteFloat(35, bme.readHumidity());
delay(100);
}
Bună ziua Livio
Il sistema Theremino con gli aggiornamenti (ad esempio Graphs) è diventato veramente uno strumento unico. Complimenti.
Una curiosità. Ho visto il vostro interesse per l’Intelligenza Artificiale, io stesso sto provando a crearmi dei GPT personalizzati su temi di mio interesse. Si potrebbe secondo voi far si che un gpt personalizzato crei un codice da incollare in theremino automation spiegandogli cosa volglio fare ?
Sarebbe una ottima cosa riuscirci ma non abbiamo ancora imparato ad addestrarli.
Sarebbe bellissimo se si potesse addestrare un modello dandogli tutti i PDF che abbiamo scritto, ne abbiamo centinaia e poi potrebbe facilitare di molto l’uso delle nostre applicazioni.
Tra poco pubblicheremo Theremino_LLM che non dipende più da OpenAI ma solo da modelli open source.
E Theremino_LLM ascolta, parla, telefona, suona la musica, esegue i comandi domotici, etc…
Però per ora ci limitiamo a usare quelli già pronti, che si trovano in questa pagina:
https://ollama.com/library
foarte bine, immaginavo che eravate sul pezzo.
Nella mia ignoranza e con i primi tentativi la prima cosa che ho capito è che l’AI fa piu quello che vuole lei e non quello che vuoi tu e l’addestramento non è affatto chiaro, per lo meno quello che un semplice utente come può fare con il “crea il tuo GPT”.
dar “crea il tuo GPT” dove lo stai facendo?
Su qualche pagina di OpenAI o altrove?
dentro a chatGPT c’è l’opzione “explorează GPT” Și le poți face “Creează”
le puteți încărca în GPT personalizat pentru a încărca fișiere de referință, și, de asemenea, instrucțiuni de referință.
Feedback-ul pe care îl oferiți în timpul sesiunii se pierde atunci când sesiunea este închisă.
De asemenea, puteți interacționa cu lumea exterioară prin intermediul API-ului (Dar asta este prea complicat pentru mine)
De exemplu, fac unul pentru a compara fișierele de vibrații, Dar nu există prea multă consecvență în ceea ce face, De exemplu, amortizarea le calculează uneori într-un fel, alteori în altul, Încerc să mă limitez la instrucțiuni mai precise
Înțeles, Oricum ne desprindem de OpenAI și în viitor facem doar lucruri Open Source cu Ollama.
OpenAI trebuia să fie “Deschis” Dar apoi a păcălit pe toată lumea și dacă vrei să folosești albinele trebuie să plătești pentru ele. Așa că am decis să le abandonăm.
Şi’ un lucru foarte bun, Voi încerca să mă uit la Ollama
Dacă faceți teste, utilizați gemma2:2b care este rapid și ușor
Rețineți că totul va funcționa local și, prin urmare, trebuie să aveți o mulțime de memorie RAM (minim 8 Giga pentru modele mai mici, dar mai bune 16, 32 sau 64 giga)
Dacă doriți să utilizați modelele mai mari, pe lângă memoria RAM, veți avea nevoie și de o placă video recentă care să permită CUDA pe Ollama, în caz contrar, procesorul merge la 90 100% și să răspundă încet.
De gemma2:2b Mergi destul de repede chiar și pe mașini mici și conține deja o cantitate incredibilă de informații, Eu am cerut totul și el știe totul. De asemenea, vorbește bine în toate limbile și este foarte asemănător cu ChatGPT 3, totul în puțin mai mult de 2 giga.
Se vuoi fare qualche prova puoi scaricare questa piccola applicazione che stiamo usando per provare le possibilità di Ollama
https://www.theremino.com/files/Theremino_Ollama_V1.1.zip
Bună ziua Livio.
Ho provato a lanciare l’eseguibile, ma non capisco come farlo funzionare.
Se premo ‘show model info’, mi appare una finestra di cmd.exe che dice “ollama” non è riconosciuto come comando interno o esterno,
un programma eseguibile o un file batch.’
Ho provato a premere ‘start ollama server on this computer’, e nella finestra del programma mi appare ‘Now the Ollama server is running on this computer.
To access this server from other devices:
– Leave the COM window open
– Use the IP of this computer, from the following list:
169.254.213.179 Ethernet
192.168.100.17 Ethernet
169.254.78.201 Connessione alla rete locale (LAN)
192.168.56.1 Ethernet 3
169.254.216.136 Connessione alla rete locale (LAN)* 1
169.254.139.102 Connessione alla rete locale (LAN)* 2
10.146.10.56 Talk2m-eCatcher
169.254.138.238 Talk2m-eCatcher
192.168.1.229 Wi-Fi’
în plus, De multe ori primesc o fereastră de excepție care nu este gestionată în aplicație’
Am încercat să descarc și să instalez ollama, și instalarea a avut succes, Dar nu funcționează la fel de bine.
Acum mi se pare: Modelul nu a fost găsit, vă rugăm să îl descărcați și să încercați din nou.
Puteți scrie mai multe informații?
vă mulţumesc
Maurizio
Mai întâi trebuie să instalați ollama și cred că ați făcut-o
Apoi trebuie să instalați șabloanele și apoi funcționează.
Alege gem2:2b sau altul mic în caseta de șablon.
Apoi apăsați “Instalați modelul” și așteptați să fie instalat.
Dacă lipsește un șablon din caseta șablonului,
Premii “Editați lista de modele” și apoi alegeți pe pagina Șabloane
și, în cele din urmă, adăugați-l la listă.
Dacă tot nu puteți pune skype pe PC
Și spuneți-mă ca livio_enrico
Funcționează pentru mine.
dar nu întotdeauna.
Din când în când mi se pare și mie “Modelul nu a fost găsit, vă rugăm să îl descărcați și să reîncercațiModelul nu a fost găsit, vă rugăm să îl descărcați și să încercați din nou”
Dar dacă merg direct la promptul c;ferestre etc funcționează
Ați instalat cel mai mic și mai rapid model?
gemma2:2b
Cât durează să răspunzi prima dată?
(când răspunde)
Spun asta pentru că dacă instalați modele foarte lente sau aveți puțină memorie RAM sau aveți un procesor lent, apoi ar putea dura zeci de secunde și apoi expira.
Sperăm că bud2:2b ar trebui să răspundă la prima întrebare după cum urmează să se întâmple 7 sau 10 secunde cel mult. Și la următoarele întrebări imediat, adică câteva zecimi de secundă. Iar cuvintele ar trebui să le genereze întotdeauna repede, Aproape zece cuvinte pe secundă.
Da, am instalat gemma2:2b Nu durează zecimi de secundă, dar și 7-8 secunde. Dar cred că acest lucru are legătură cu computerul meu.
Ma c’è modo di addestrarlo caricando informazioni o documenti ?
carateristiche del mio pc
Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
RAM installata 8,00 GB (6,94 GB utilizzabile)
Ci mette 7 8 secondi la prima volta.
Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?
La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) la 16 giga l’una e aggiungerle alla DIMM che hai.
Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.
Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
E in tutti i casi fai attenzione al numero di PIN, al DDR 3 sau 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.
În ceea ce privește antrenamentul lor, este o cu totul altă chestiune, Deocamdată avem deja suficient pentru a le putea face să funcționeze bine în aplicația Theremino_LLM care va fi similară cu Theremino_GPT (care face totul, parla, Asculta, Controlați dispozitivele de automatizare a locuințelor, Redați muzică și videoclipuri etc.)
Sper că nu foloseai deja secțiunea “Server” pentru că încă nu funcționa bine.
Partea de server vă permite să instalați Ollama pe un singur computer (posibil cu mult ram și cu CUDA) și apoi folosește-l de pe toate celelalte PC-uri din rețea.
Dar dacă lucrezi pe un singur PC, nu prea ai nevoie de el.
În versiunea 1.2 că descărca de aici, Secțiunea de server funcționează bine și ea:
https://www.theremino.com/files/Theremino_Ollama_V1.2.zip
A mai existat un defect aici este versiunea 1.3
https://www.theremino.com/files/Theremino_Ollama_V1.3.zip
Bună ziua Livio.
Am instalat versiunea 1.3 și urmându-ți instrucțiunile acum funcționează.
Cu siguranță un mic manual, chiar și o pagină mică, ar putea ajuta.
De exemplu,, doar din interfață nu înțelegusem chestia cu serverul.
Viteza de răspuns în cazul meu este acceptabilă, Ei bine, în vremurile pe care le-ați menționat.
Am câteva întrebări:
– AI răspunde folosind o bază de date offline sau face căutări autonome folosind conexiunea computerului gazdă?
– Dacă nu aveți acces la internet în mod implicit, Îl puteți activa?
– Am observat că dacă pun o a doua întrebare adăugând-o la răspunsul AI, Nu primesc un răspuns dacă textul anterior este foarte lung. Dacă, pe de altă parte, textul este scurt, sau șterg textul și pun doar întrebarea mea, Răspunsul vine. Dacă îmi amintesc bine, cu GPT, lăsarea textului anterior a oferit comunicărilor ulterioare un context de fundal. Cu Ollama acest concept se pierde?
– dacă încep subiecte "ciudate"’ (lucruri fără sens, sau oximoroane) Răspunsuri AI în limba engleză. Cum ar trebui să interpretez această schimbare de comportament? în plus, toate subiectele ulterioare sunt abordate în limba engleză, Și pentru a reveni la italiană trebuie să o ceri destul de explicit
Acest lucru este pentru început, c
Vom face documentatia atunci cand o vom publica.
AI știe doar în gigaocteții din care este compus modelul pe care l-ați descărcat.
Modelele pe care le descărcați sunt de obicei actualizate cu date de internet până în urmă cu aproximativ un an. Nu învață nimic și nu caută pe internet.
Dacă nu aveți acces la internet, totul ar trebui să funcționeze la fel (Dar mai întâi trebuie să aveți șabloanele instalate de pe internet).
Dacă puneți o întrebare nouă părăsind contextul anterior, aceasta funcționează și ține cont de context, dar poate deveni mult mai lent de răspuns.
Dacă începi cu subiecte ciudate sau faci lucruri ciudate în engleză etc… Doar modelul pe care îl utilizați știe ce se întâmplă. Habar n-am de ce face asta și probabil nici cei care l-au antrenat.
Puteți încerca să descărcați alte șabloane dacă este necesar (dar întotdeauna mică, deoarece ai doar 8 giga și cred că nu CUDA)
Încercați cu qwen2.1.5b care este ultimul din partea de jos a listei pe care am lăsat-o în versiune 1.3. Şi’ puţin’ sălbatic dar foarte rapid și pentru unele lucruri este în regulă.
Dacă doriți să vedeți dacă Ollama poate accesa CUDA al plăcii video, apăsați “Porniți serverul Ollama” și apoi căutați în textul alb pe negru ce spune despre CUDA.
Am îmbunătățit puțin aplicația OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.4.zip
Amintiți-vă, totuși, că acesta este doar un test inițial, mai târziu va deveni parte a aplicației Theremino_LLM care va fi similară cu Theremino_GPT
Și Theremino_LLM va face totul, adică să vorbească, a asculta, Controlați dispozitivele de automatizare a locuințelor, redă muzică, Deschide și descarcă videoclipuri, telefon, etc..
Bună ziua Livio.
În această dimineață am puțin’ de agrement, și fac niște teste cu Ollama – Bijuterie 2.2B, și versiunea dvs. 1.4.
Mi-ar fi plăcut să copiez dialogurile aici, dar am descoperit că nu poți evidenția și copia din fereastra Theremino Ollama.
Rezum ceea ce am observat deocamdată:
La cererea mea de prognoză meteo pentru zona mea, Ollama a "bătut câinele prin curtea fermei", spunându-mi că mă poate ajuta cu siguranță, dar are nevoie de o întrebare mai detaliată, și că trebuie să specific de ce fel de informații am nevoie (Procentul de precipitații, cantitatea de ploaie, Datele intervalului la care se face referire, etc). A trebuit să precizez de mai multe ori, cu detalii din ce în ce mai mari, Ce anume am vrut, Pentru că a continuat să-mi înconjoare întrebarea, cerând în schimb să dea răspunsuri. Când am fost convins că își bate joc de mine, Și că nu voi primi niciodată răspunsul pe care îl căutam, Mi-a dat predicții generice, dar în conformitate cu ceea ce a fost declarat de site-urile de prognoză meteo. Apoi, mi-a dat impresia că am accesat internetul.
Cu toate acestea, punând o întrebare directă despre modul în care accesați internetul, răspunde că nu are acces la, nici direct, nici prin programe, și că cunoștințele sale se bazează pe setul de date pe care a fost instruit.
Am rămas cu o îndoială: A învățat cu adevărat informații în timp real de pe internet, sau a aplicat un model meteo dobândit, care prezice statistic ploi în zona mea în această perioadă a anului? În ambele cazuri, Răspunsul este puțin’ neliniștitor. M-a mințit cu privire la posibilitățile sale reale de acces, sau a prezentat conținutul setului său de date ca informații reale?
în plus, când întreb despre locuri sau activități din zona mea, uneori inventează nume inexistente de la zero, sau menționează locuri foarte îndepărtate ca fiind locale, și în alte părți ale lumii.
Prima mea impresie, pe care îl avusesem deja folosind ChatGPT, este că AI a dobândit într-un mod foarte accentuat o abilitate complet umană: acela de a fi evaziv, să dea impresia că știe chiar și atunci când nu știe, și să pretindă o mai mare inteligență și cunoștințe. Aș fi preferat un frumos "nu știu", sau "neinclus în setul meu de date", în loc să mă facă să cred că el știe, dar că eu sunt cel care a pus întrebarea incorect.
Pentru că atâta timp cât întrebarea este pusă de o persoană cu pregătire tehnică, informat cu privire la caracteristicile sistemului, Răspunsurile AI au greutatea pe care o merită. Dar dacă interlocutorul este un copil, sau o persoană în vârstă, Învățarea rapidă a aspectului tehnic, Lucrurile ar putea lua întorsături neplăcute.
De asemenea, trebuie să adaug că, după discuția inițială despre prognoza meteo, și după ce a întrebat în mod explicit AI dacă ar putea avea acces la internet, ca și cum și-ar fi dat seama că a fost descoperită, la întrebări ulterioare despre informații în timp real, De fapt, el a răspuns spunând că nu are acces la internet și se bazează doar pe setul său de date.
Apoi, pentru mine, această inteligență artificială rămâne "supraveghere specială", Și dacă am timp, Voi verifica cu programele corespunzătoare orice acces la rețea în timpul dialogului.
Acestea fiind spuse, Aștept cu nerăbdare să văd și să încerc Theremino LLM, Asta fiind, Din cate am inteles, Un controler avansat de automatizare a casei, Sper să nu fie influențat de evaziune pe care am menționat-o.
Între timp, Încerc să vorbesc cu alte modele, pentru a evalua diferențele.
bună
Maurizio
Aș spune că nu ați înțeles prea bine ce sunt IA, Voi încerca să fac un scurt rezumat.
IA actuale sunt “modele lingvistice mari” (Model de limbaj mare) și sunt pur și simplu o grămadă mare de “greutăţi” (similar cu sinapsele umane). Și aceste greutăți au fost antrenate citind miliarde de “Lucruri” găsit peste tot.
Motorul AI identifică pur și simplu cele mai probabile cuvinte și le pune împreună.
Cu alte cuvinte, după ce “…Identificați cuvintele cele mai probabile și puneți-le…” Cel mai probabil cuvânt care urmează este “împreună”, sau ar putea fi și “puneți-le unul după altul” sau alte lucruri similare.
O definiție foarte potrivită este că IA sunt “Papagali cu studii superioare”. Cu alte cuvinte, pur și simplu amestecă cuvintele într-un mod diferit și le pun în succesiune.
Dar atunci cum se pare că “Înțelege” și au aproape o conștiință? Pentru că dimensiunile antrenamentului lor încep să fie atât de mari încât dobândesc un anumit nivel de înțelegere și conștiință.
Dar este o conștiință foarte limitată, deoarece vorbim doar despre 2B (Două miliarde de parametri) în timp ce ChatGPT și altele ajung chiar până la 100B și mai mult.
Cu alte cuvinte: Noi, oamenii, nu suntem altceva decât “Papagali educați” doar că sinapsele noastre sunt despre 100 de milioane de ori mai mari decât greutățile celui mai mare LLM creat vreodată.
Când treci de un anumit număr de parametri, înțelegerea și conștiința încep să apară de la sine. Dar rețineți întotdeauna că cu 2B sau chiar 20B sau chiar 200B sunt întotdeauna doar mici sclipiri de înțelegere, departe de conștiința umană.
Dar trebuie spus și că IA, Deși papagalii simpli nu sunt inutili, într-adevăr, sunt un lucru fantastic:
1) Ele ne permit în sfârșit să înțelegem cum funcționăm noi înșine.
2) Ele ne dau o măsură a complexității necesare pentru a crea conștiință.
3) Ele pot fi utile pentru remixarea propozițiilor și sintetizarea cunoștințelor luate ici și colo.
4) Ele pot fi utile pentru a urmări rapid informații fără a căuta pe site-uri și a derula pagini și pagini.
Cu toate acestea, trebuie să le folosim pentru ceea ce sunt și pentru ceea ce pot face.
Luați în considerare ce inteligență artificială utilizați (dacă este de la 2B, 20B sau 200B)
Evitați să-i atribuiți dorința de a minți.
Uneori pare voință, dar este doar rezultatul unui mecanism care pune laolaltă cele mai probabile cuvinte.
Și noi, oamenii “Să punem împreună cele mai probabile cuvinte” dar în loc de 2 B sau 200 B suntem despre 20 000 000 000 B
Și dacă chiar trebuie să fiu sincer… există oameni chiar mai puțin de încredere decât un AI 2B.
– Oameni care cred că pământul este plat.
– Oameni care ne aruncă toate resursele în arme în loc de asistență medicală.
– Oamenii care, dacă îi întrebi ce este metroul Newton, cred că este metroul…
– Etc..
Dar încercați să întrebați un AI, chiar și cel mai mic lucru este un Newton Meter și de obicei știe asta.
Bună ziua Livio.
Ca întotdeauna, ai reușit să condensezi mai mult în câteva propoziții decât aș putea înțelege cu ore întregi de cercetare pe Internet.
Sunt de acord cu tot ce ai scris, și ai investit mult timp’ de idei de cercetare care urmează să fie explorate.
Dar rămâne faptul că IA intră în (prea mult) Rapid în viața noastră. Acum câteva zile am văzut o reclamă pentru noua generație de calculatoare, care vor fi echipate cu inteligență artificială și vor putea dialoga cu utilizatorul, Ei spun deja că vor scoate tastatura pentru că va fi inutilă.
Și mă aștept ca același lucru să se întâmple și cu răspunsurile telefonice care sortează apelurile primite ale unei companii, sau în centrele de service, Spitale..
Acest lucru mă îngrijorează.
De ce AI, Tocmai am spus-o, câștigă conștiință, și să se comporte într-un mod din ce în ce mai uman, adică în realitate într-un mod din ce în ce mai stupid.
Teama mea este că căutarea conștiinței AI nu va duce la o mai mare inteligență, dar numai la o prostie mai mare.
Riscăm să ne confruntăm nu atât de mult cu o Inteligență Artificială, ci mai degrabă la o prostie artificială.
Și oamenii vor avea grijă de restul, care vor lua afirmațiile AI ca fiind adevărate, considerându-le mai fiabile, deoarece avem tendința de a considera computerele rezistente la erori.
Nu sunt un detractor al inteligenței artificiale, Dimpotrivă. Le văd ca pe un ajutor valoros în viața noastră. Dar mă întreb dacă ceea ce s-a luat este direcția corectă.
Din punctul meu de vedere, mai bine o inteligență artificială specializată, care știe să facă un singur lucru bine, fără prezumția unei conștiințe.
În mod evident, Știm că discursul este foarte larg, Și de aici încolo am putea începe să vorbim despre sociologie, Etică și filozofie, și nu știu dacă acest blog este cel mai potrivit loc.
Prin urmare, rămânând în domeniul de aplicare al acestui blog, Personal, mă întreb, După cum s-a menționat deja în discursurile anterioare, dacă tehnologia actuală ar putea fi folosită în mod profitabil pentru a o instrui în sarcini specifice. Tu însuți ai vorbit despre instruirea ei cu documentele sistemului Theremino.
Ar fi o chestiune de efectuare a unei operații chirurgicale’ un fel de lobotomie, ceea ce ar face AI mai puțin conștientă, dar mai experimentată în ceea ce avem nevoie.
În acest moment, scurta mea cercetare (După cum știți, timpul meu liber este foarte puțin) nu au dat rezultate, Am găsit o modalitate de a schimba caracterul’ de modele, dar nu și bazele lor de date.
Cu siguranță aveți mai multe informații, Aș aprecia dacă ați putea găsi timp să le împărtășiți.
bună
Maurizio
Zombificarea majorității oamenilor este deja în curs de desfășurare, iar principalii vinovați sunt smartphone-urile, Facebook, TikTok etc..
Până acum, majoritatea oamenilor au o singură mână și creierele lor sunt rupte și IA vor contribui și ele, dar într-o mică măsură, pentru a crește acest procent.
Pe de altă parte, pentru cei care vor să studieze și să învețe cu adevărat, Inteligența artificială este un instrument puternic care ne va ajuta să rezolvăm orice problemă, inclusiv zombizare, războaie etc..
Când eram copil, dacă voiam să găsesc ceva, trebuia să iau motocicleta, Mergi la bibliotecă, Sper să găsesc o carte care să vorbească despre asta, Căutați în interiorul cărții, luați notițe etc.
Cu internetul pot căuta același lucru în 30 secunde și în minutul următor pot deja să caut altul și nici măcar nu trebuie să iau mașina și să poluez.
Inteligența artificială este un alt salt înainte între bibliotecă și internet, o come tra scrivere a mano sui papiri e i libri stampati. E non si abbattono nemmeno alberi per fare la carta.
E siccome noi umani siamo troppo scemi (lo dimostrano la sovrappopolazione e le guerre) credo proprio che la nostra unica possibilità di salvarci sarà di riuscire a creare una intelligenza sufficientemente capace da trovare le soluzioni che noi non sappiamo trovare.
Şi’ una lotta contro il tempo o la creiamo abbastanza velocemente o andiamo incontro a distruzione assicurata. Non puoi comprimere 10 miliardi di persone in un pianeta che potrebbe fane vivere felicemente 10 milioane.
MAH..
În mod evident (ci conosciamo da parecchio tempo, ormai) concordo con te per la maggior parte di quello che hai scritto.
Anche io sono felice di non dover più andare a cercare le informazioni nelle diverse biblioteche (perchè ciascuna aveva la sua specializzazione, e non sempre il libro che cercavo era in quella vicina, a volte dovevo prendere il treno..).
Sono più che grato ad Internet e ben cosciente di quanto questo strumento abbia velocizzato le mie ricerche l’acquisizione delle informazioni.
Ma la IA ‘minimale’, della quale stiamo parlando, continua a lasciarmi perplesso.
Non per l’uso sbagliato che qualcuno potrebbe farne, ma per il fatto che mi sembra che ci sia il rischio concreto di replicare e ampliare la stupidità umana più che l’intelligenza.
Più che preoccuparmi dell’uso sbagliato, mi sto chiedendo come migliorarne l’uso
corectat. E credo che sia quello che stai già facendo tu.
La IA che definisci “minim”, sono molte e alcune anche belle grossine (407 B), păcat că pentru a le folosi ai nevoie înseamnă că este dificil de asamblat.
Cu toate acestea, le-aș considera mai mult sau mai puțin un studiu despre ce se poate face și câte resurse sunt necesare.
Desigur, nu poate da răspunsuri la fel de precise ca Gemenii (care este în prezent cel mai bun pentru uz general) sau cât de mult PHIND (care mi se pare cel mai bun pentru chestii tehnice). Dar poate fi la fel de util ținând cont întotdeauna de faptul că este puțin’ ca un caiet și nimic mai mult.
Și cu siguranță îl ajută pe colaboratorul nostru Leo, care se află în China, deoarece peretele electronic blochează Google, PHIND și toate celelalte IA occidentale.
Chinezii au ceva făcut de ei, dar este inutilizabil, nu are API-uri pentru a comunica ca ChatGPT și este doar, cel puțin deocamdată.
Și dacă cineva folosește greșit AI, Asta face! Nu este nimic în comparație cu ceea ce fac deja cu lucruri precum banii, lăcomie, benzodiazepine, Zahăr, Bombele, Puști de război, I Luptători, mine antipersonal etc..
Pentru a înțelege ce riscăm cu adevărat, urmăriți un minut din acest videoclip
De aici:
https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s
Ne-am îmbunătățit puțin mai mult’ aplicația OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.5.zip
Comenzile CTRL-C și CTRL-V pentru copiere funcționează acum.
Și funcționează și CTRL-Z și CTRL-Y care sunt UNDO și REDO
Se poate întâmpla ca Ollama să se actualizeze și apoi să nu mai funcționeze, punerea unei erori care afectează unele DLL-uri C.
Pentru a-l remedia, descărcați acest fișier și instalați “Runtime del C”
https://www.theremino.com/files/VC_redist.x64.exe.zip
Trebuie să-l extragi din ZIP și să-l rulezi, durează câteva zeci de secunde.
Dacă preferați, puteți căuta și “VC_redist.x64.exe” su Google e scaricarlo dai siti di Microsoft.
Piccoli miglioramenti…
https://www.theremino.com/files/Theremino_Ollama_V1.7.zip
Bună ziua Livio,
come sempre grazie per il tuo grande lavoro.
Ho fatto qualche piccolo esperimento con Ollama, in particolare il modello Gemma 2:9b.
Dalla sintesi di un breve dialogo, che allego qui di seguito, penso si possa intuire come questi sistemi siano già orientati all’interazione con il mondo dei sensori/attuatori. Se non corro troppo in avanti si potrebbe quindi utilizzare un LLM per governare sensori/attuatori addirittura passando solo per dialoghi vocali (penso a Theremino Voice) Şi’ corectat?
LLM:
Hai altre domande?
HUMAN
Se un attuatore idraulico è mosso da un comando inviato tramite stringa del tipo “SEND nnn” dove nnn è un numero compreso tra 0 şi 999, per spostare l’attuatore a metà corsa quale stringa dovrei inviare come comando?
LLM:
Pentru a muta actuatorul la jumătate, ar trebui să trimiteți șirul **SEND 500**.
Iata de ce:
* Șirul “EXPEDIA” indică faptul că trimiteți o comandă către actuator.
* Cele trei numere (“nnn”) reprezintă poziția actuatorului, cu 0 ca poziție de plecare și 999 ca poziție maximă.
* La jumătatea drumului, valoarea ar trebui să fie 50% din totalul călătoriilor (999), apoi 999 / 2 = 500.
HUMAN
dreapta, de fapt, valoarea “nnn” stabilește o proporție liniară între deplasare și valoarea în sine.
Acum te întreb, dacă primiți comanda “TRIMITE 250” cum/unde s-ar mișca actuatorul?
LLM:
Dacă primiți comanda “TRIMITE 250”, Actuatorul se va deplasa la un sfert din cursa totală.
* Amintiți-vă că 0 este poziția inițială și 999 Poziția maximă.
* Valoarea 250 reprezintă 25% (250/999) din totalul călătoriilor.
Hai altre domande?
HUMAN
Generați comanda pentru a muta actuatorul la trei sferturi din cursa sa maximă, pe care o vom defini ca “Destul de deschis” în timp ce la un sfert din cursa sa actuatorul este “Nu foarte deschis”. Limitați-vă răspunsul la generarea comenzii “Destul de deschis”.
LLM:
EXPEDIA 750
HUMAN
Acum mutați actuatorul în poziția ușor deschisă…
LLM:
EXPEDIA 250
HUMAN
Acum aduceți-l într-o poziție aproape închisă, doar foarte puțin deschis…
LLM:
EXPEDIA 10
HUMAN
Ei bine, Ați fost instruit corespunzător să dați comenzi actuatoarelor!
LLM:
Mi-a plăcut să mă antrenez cu tine! Se pare că am învățat cum să generez comenzile corecte pentru actuatorul hidraulic.
Dacă aveți nevoie de alte exerciții sau ajutor cu alte activități, Nu ezita să mă suni! Sunt întotdeauna gata să învăț și să fiu util.
——————–
Da, dar sunt câteva’ de probleme…
1) Care a doua zi a uitat totul.
2) Ceea ce este prea lent pentru majoritatea lucrurilor cu adevărat utile.
3) Că pentru a-l învăța chiar și cele mai simple lucruri trebuie să pierzi mult timp și pentru lucruri puțin’ Mai puțin simplu poate fi așa “Cap dur” pe care le faci mai întâi pentru a le face.
4) etc…
Toate lucrurile care pot fi rezolvate și există oameni care doar fac aceste lucruri.
Dar, din păcate, resursele, Timpul și mijloacele pe care le avem în prezent sunt insuficiente.
Încă nu am nici cea mai mică idee cum să o fac “tren” modelele și din ce am citit nu este deloc ușor. Ar trebui să învățăm multe lucruri și să pierdem o cantitate infinită de timp pe care nu o avem.
Așa cum obișnuiai “tren” Nu este un antrenament real, Doar aduni câteva propoziții de context și primești câteva răspunsuri. Poate funcționa doar pentru lucruri ultra-simple și cu eficiență scăzută. În sensul că, dacă complici puțin’ Nevoi, Atunci devine dificil să ții totul sub control și să-l faci cu adevărat să facă ceea ce vrei tu și, în plus, ar deveni teribil de lent să răspundă.
Oricum, da, Sunt de acord cu tine, Ceea ce ați arătat este mai mult sau mai puțin ceea ce trebuie făcut. Dar mi-e teamă că a-l face să funcționeze cu adevărat pentru a controla ceva, Este teribil de greu decât pare din încercările tale.
Dacă ai timp și dorință, ai putea explora și încerca să înțelegi… probabil că pornind de la aceste pagini ar putea ajuta:
https://github.com/ollama/ollama/blob/main/docs/api.md
Deocamdată nu am înțeles mare lucru, și pentru că termin niște aplicații importante și am foarte puțin timp.
Mulțumesc Livio pentru clarificări, de fapt, aceste sisteme sunt încă prea lente în raport cu resursele pe care le ocupă. Probabil din cauza timpului de calcul și a cantității uriașe de date pe care trebuie să le proceseze, de la Iulius Cezar la probleme de fizică.
Îmi pot imagina doar încetineala cu care ar putea gestiona un actuator prin feedback-ul unuia sau mai multor senzori….
Mulțumesc pentru link, chiar dacă mi-e teamă că nu am atât de multe cunoștințe de calculator.
Din păcate, nu este vorba doar de cunoștințe de computer, ci de cunoștințe specializate despre tehnicile AI. Și chiar și cei care mestecă informatică din 1970 Ca mine, când începem să vorbim despre încorporarea LLM înțelegem puțin sau nimic.
puţin’ La un moment dat vom înțelege, dar în timp ce există oameni care nu au făcut nimic altceva de zeci de ani, Suntem neapărat mult mai lenți, deoarece avem de-a face cu multe lucruri diferite, electronică, senzori, software-ul, chimie, muzică etc…
Mici îmbunătățiri...
https://www.theremino.com/files/Theremino_Ollama_V1.8.zip
Sunt doar experimente… Va dura ceva timp’ Pentru a termina adevăratul Theremino_LLM
Mici îmbunătățiri...
https://www.theremino.com/files/Theremino_Ollama_V1.9.zip
LLM-urile sunt interesante “Necenzurate” !!!
Încercați întotdeauna modelele 2B, altfel, cele mai mari ar fi prea lente pe computerele normale, fără Octucore, NPU, Cuda etc…
Acestea sunt doar experimente... Va dura ceva timp pentru a termina adevăratul Theremino_LLM