Blog

Schrijf hier vragen, opmerkingen, aanbevelingen en nieuwe ideeën. Om alleen de naam of een bijnaam zoals te schrijven “Ik” of “Pippo”, de overige vakken leeg te laten.

Ook toevoegen de “E-mail” alleen dient om te onderscheiden met zekerheid. Als u wilt toevoegen aan de mail doen met vertrouwen, We hebben betere dingen te doen, Wij verzamelen adressen voor spam.

De Blog is nog niet alles op deze pagina, Ga je naar het menu “Blog” en kies een onderwerp.

Als u niet kunt de juiste blog sectie vinden, Voer op deze pagina en we zullen, vinden van de juiste sectie, of maak een nieuwe.


Afbeeldingen invoegen en markeer blogberichten

Een afbeelding invoegen:

<img src ="HTTPS://www.xxxx.yyyy.zzzz.jpg" ALT ="Beschrijving van het image"/>

Markeer een deel van de tekst:

<span stijl ="achtergrondkleur: #ffff99;">TEKST MARKEREN</span>

Voel je vrij om het maken van fouten en experimenten in berichten. Als er iets misgaat, Schrijf gewoon een tweede post, met correcties te doen. Zullen wij correcties, en tot slot zullen we dienstberichten annuleren.

  1. ROBERTO zegt:

    Hallo Livio, Altijd veel complimenten voor het werk dat je doet.
    Ik heb de fonometer gedownload omdat ik wil proberen enkele akoestische metingen van een warmtepomp te doen (Condensatie-eenheid voor buiten) bij verschillende operationele regimes. Ik kan het niet vinden, als ik het goed zeg, Richtlijnen voor microfoonschema's/aansluitingen ECM8000 naar de master in gedownloade bronnen.
    Kunt u mij hierover informatie geven??

    Bedankt en goede baan.

    Roberto

  2. Livio zegt:

    Helaas werkt Theremino GPT niet meer, we zullen een oplossing vinden, maar om het in de tussentijd te laten werken, moet je je eigen sleutel maken bij OpenAI, zoals uitgelegd in het "Theremino_GPT_Help.pdf" -bestand dat je hier kunt downloaden:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    Wat is er gebeurd?
    Iemand in de dagen daarna 7 December heeft tot nu toe GPT4 gebruikt, dus “mateloos” En in een paar dagen gebruikte hij een miljoen tokens, door de API-sleutel die aan ons account is gekoppeld in bulk te verzenden.

    Laten we van deze gelegenheid gebruik maken om uit te leggen aan degenen die het nog niet weten dat GPT4 erg duur is, maar liefst dertig keer duurder dan GPT 3.5 Turbo.

    Bovendien reageert GPT4 traag, dus het moet spaarzaam worden gebruikt en alleen als dat nodig is.

    ———————

    In de komende dagen zullen we een nieuwe versie van Theremino GPT publiceren, Wees dus voorzichtig met deze berichten op de nieuwspagina.

    Voor nu, zoals reeds geschreven, als je Theremino GPT wilt gebruiken, moet je je eigen sleutel maken bij OpenAI.

  3. Livio zegt:

    We hebben Theremino GPT gereset om te werken.

    De versie 4.7 Herstel de werking zonder dat u uw eigen sleutel hoeft te maken (het OpenAI-KEY-vakje leeg laten).

    Ricordiamo che la nostra API-KEY funziona solo con GPT-3.5-turbo.

    Laten we van deze gelegenheid gebruik maken om uit te leggen aan degenen die het nog niet weten dat GPT4 erg duur is, maar liefst dertig keer duurder dan GPT 3.5 Turbo. Bovendien reageert GPT4 traag, dus het moet spaarzaam worden gebruikt en alleen als dat nodig is.

    Download de versie 4.7 vanaf hier:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. AlbertoR zegt:

    Hallo Livio en alle ontwikkelaars van Theremino. Ik feliciteer je echt met wat je hebt gedaan.

    Ik wilde delen dat ik met succes verbinding heb gemaakt met een IoT-module (De TTGO7ver1.3) een zeer interessante I2C-sonde, in ieder geval voor mij. Dit is de Bosh-sonde met BME280-sensor, dat is een druksensor, Temperatuur en vochtigheid. Het exemplaar dat ik heb gekocht (ongeveer tien euro) is gebrandmerkt mikroBUS.

    Uiteraard heb ik de firmware aangepast zodat deze deze correct leest en ik rapporteer het programma hieronder, Misschien is het nuttig als een ander voorbeeld.

    Ik heb de fysieke verbinding met de pinnen gemaakt 21(SDA) en 22(SCL) welke zijn de standaard voor ESP32 in I2C-communicatie. Ik zag dat je in de andere voorbeelden ze naar believen kunt wijzigen met de Wire-bibliotheek, Dat is me hier niet gelukt en dus heb ik ze zo gelaten.

    In de IotHAL moeten de datapinnen worden ingesteld op “Gen_in_float”.

    De voeding is 3.3V.

    Nogmaals bedankt. Een prettige dag.
    Alberto

    ingebouwde programmatuur:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber zegt:

    Hallo Livio
    Het Theremino-systeem met updates (bijv. grafieken) is echt een uniek hulpmiddel geworden. Gefeliciteerd.
    Een curiositeit. Ik zag je interesse in Artificial Intelligence, Ik probeer zelf aangepaste GPT's te maken over onderwerpen die voor mij van belang zijn. Naar uw mening zou het mogelijk kunnen zijn om een aangepaste gpt een code te laten maken die in theremino-automatisering moet worden geplakt waarin wordt uitgelegd wat ik wil doen ?

    • Livio zegt:

      Het zou geweldig zijn om te slagen, maar we hebben nog niet geleerd om ze op te leiden.
      Het zou geweldig zijn als je een model zou kunnen trainen door het alle PDF's te geven die we hebben geschreven, We hebben er honderden en dan zou het het gebruik van onze applicaties enorm kunnen vergemakkelijken.

      Binnenkort publiceren we Theremino_LLM die niet langer afhankelijk is van OpenAI maar alleen van open source modellen.
      En Theremino_LLM naar luisteren, Spreekt, Roepen, Speel de muziek af, Voert domotica-commando's uit, enz…

      Maar voor nu beperken we ons tot het gebruik van de kant-en-klare, die op deze pagina te vinden is:
      https://ollama.com/library

      • geofaber zegt:

        Heel goed, Ik stelde me voor dat je aan de bal was.
        In mijn onwetendheid en bij de eerste pogingen is het eerste wat ik me realiseerde dat de AI meer doet wat hij wil en niet wat jij wilt en de training is helemaal niet duidelijk, tenminste wat een eenvoudige gebruiker kan doen met de “creëer je eigen GPT”.

  6. geofaber zegt:

    binnen ChatGPT is er de optie “GPT verkennen” En je kunt ze doen “Maakt”
    je kunt ze uploaden in je aangepaste GPT om referentiebestanden te uploaden, en ook referentie-instructies.
    Feedback die je hen tijdens de sessie geeft, gaat verloren wanneer de sessie wordt afgesloten.
    Je kunt ook communiceren met de buitenwereld via de API (Maar dit is te ingewikkeld voor mij)
    Ik maak er bijvoorbeeld een om trilbestanden te vergelijken, Maar er is niet veel consistentie in wat hij doet, De demping berekent ze bijvoorbeeld soms op de ene manier, soms op een andere manier, Ik probeer het te beperken tot preciezere instructies

    • Livio zegt:

      Begrepen, Hoe dan ook, we breken met OpenAI en in de toekomst doen we alleen nog maar Open Source dingen met Ollama.

      OpenAI moest dat zijn “Open” Maar toen hield hij iedereen voor de gek en als je bijen wilt gebruiken, moet je ervoor betalen. Dus besloten we ze in de steek te laten.

  7. Geofabe zegt:

    En’ Een heel goede zaak, Ik zal proberen een kijkje te nemen bij Ollama

    • Livio zegt:

      Als je tests doet, gebruik dan gemma2:2B die snel en licht is
      Houd er rekening mee dat alles lokaal zal werken en dat je daarom veel ram moet hebben (minimum 8 Giga voor kleinere modellen maar dan beter 16, 32 of 64 giga)
      Als je de grotere modellen wilt gebruiken, heb je naast het ram-geheugen ook een recente videokaart nodig die CUDA op Ollama mogelijk maakt, anders gaat de CPU naar de 90 100% en reageren langzaam.

      Door gemma2:2b Je gaat zelfs op kleine machines vrij snel en het bevat al ongelooflijk veel informatie, Ik heb alles gevraagd en hij weet alles. Het spreekt ook goed in alle talen en lijkt erg op ChatGPT 3, alles in weinig meer dan 2 giga.

    • Livio zegt:

      Als je wat tests wilt doen, kun je deze kleine applicatie downloaden die we gebruiken om de mogelijkheden van Ollama uit te proberen
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • Maurizio zegt:

        Hallo Livio.

        Ik heb geprobeerd het uitvoerbare bestand te starten, Maar ik begrijp niet hoe ik het moet laten werken.
        Als ik op 'toon modelinfo' druk, Ik krijg een cmd.exe venster met de tekst “Ollama” wordt niet herkend als een intern of extern commando,
        een uitvoerbaar programma of een batchbestand.’
        Ik heb geprobeerd op 'start ollama server op deze computer' te drukken, en in het programmavenster zie ik 'Nu draait de Ollama-server op deze computer.

        Om toegang te krijgen tot deze server vanaf andere apparaten:
        – Laat het COM-venster open
        – Gebruik het IP-adres van deze computer, uit de volgende lijst:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 Verbinding met lokaal gebied (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 Verbinding met lokaal gebied (LAN)* 1
        169.254.139.102 Verbinding met lokaal gebied (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 Wi-Fi’

        Bovendien, Ik krijg vaak een uitzonderingsvenster dat niet wordt afgehandeld in de applicatie’

        Ik heb geprobeerd ollama te downloaden en te installeren, En de installatie is gelukt, Maar het werkt niet even goed.
        Nu verschijnt het mij: Model niet gevonden, Download het en probeer het opnieuw.

        Je kunt wat meer info schrijven?

        Dank u
        Maurizio

        • Livio zegt:

          Eerst moet je ollama installeren en ik denk dat je het hebt gedaan
          Dan moet je de templates installeren en dan werkt het.

          Kies voor gem2:2b of een andere kleine in de sjabloondoos.
          Druk “Model installeren” en wacht tot het is geïnstalleerd.

          Als er een sjabloon ontbreekt in het sjabloonvak,
          Awards “Modellijst bewerken” en kies vervolgens op de sjablonenpagina
          en voeg het ten slotte toe aan de lijst.

          Als je skype nog steeds niet op de pc kunt zetten
          En noem me zoals livio_enrico

        • geofaber zegt:

          Het werkt voor mij.
          maar niet altijd.

          Af en toe verschijnt het ook bij mij “Model niet gevonden, download het en probeer het opnieuwModel niet gevonden, Download het en probeer het opnieuw”
          Maar als ik direct naar de c prompt ga;ramen etc werkt

          • Livio zegt:

            Je hebt het kleinste en snelste model geïnstalleerd?
            gemma2 zei::2b

            Hoe lang duurt het om de eerste keer te antwoorden??
            (Als hij reageert)

            Ik zeg dit omdat als je zeer trage modellen installeert of je hebt weinig ram of je hebt een trage cpu, Dan kan het tientallen seconden duren en dan is er een time-out.

            Hopelijk is de knop2:2b moet de eerste vraag beantwoorden met 7 of 10 Hoogstens een seconde. En meteen op de volgende vragen, dat wil zeggen, een paar tienden van een seconde. En woorden moeten ze altijd snel genereren, Bijna tien woorden per seconde.

            • geofaber zegt:

              Ja, ik heb gemma2 geïnstalleerd:2b het duurt geen tienden van een seconde, maar ook 7-8 seconden. Maar ik denk dat dit te maken heeft met mijn pc.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • Livio zegt:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) Van 16 giga l’una e aggiungerle alla DIMM che hai.
                Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.

                Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
                E in tutti i casi fai attenzione al numero di PIN, al DDR 3 of 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.

                Wat betreft het trainen ervan, het is een heel andere zaak, Voorlopig hebben we al genoeg om ze goed te kunnen laten werken in de Theremino_LLM-app die vergelijkbaar zal zijn met Theremino_GPT (die alles doet, Spreekt, Luisteren, Domotica-apparaten bedienen, Speel muziek en video's enz. af.)

  8. Livio zegt:

    Ik hoop dat je de sectie nog niet gebruikte “Server” omdat het nog steeds niet goed werkte.
    Met het servergedeelte kunt u Ollama op een enkele computer installeren (eventueel met veel ram en met CUDA) en gebruik het vervolgens vanaf alle andere pc's in het netwerk.
    Maar als je op een enkele pc werkt, heb je het niet echt nodig.

    In versie 1.2 dat u het downloaden vanaf hier, Het servergedeelte werkt ook goed:
    https://www.theremino.com/files/Theremino_Ollama_V1.2.zip

  9. Maurizio zegt:

    Hallo Livio.
    Ik heb de versie geïnstalleerd 1.3 En het volgen van je aanwijzingen werkt nu.
    Zeker een kleine handleiding, zelfs een kleine pagina, kan helpen.
    Bijvoorbeeld,, van de interface alleen had ik het server-ding niet begrepen.
    De reactiesnelheid is in mijn geval acceptabel, ruim binnen de door u genoemde tijden.

    Ik heb een paar vragen:
    – de AI reageert met behulp van een offline database of voert autonome zoekopdrachten uit met behulp van de verbinding van de hostcomputer?
    – Als je standaard geen toegang hebt tot internet, U kunt het inschakelen?
    – Dat merkte ik als ik een tweede vraag stel door deze toe te voegen aan het antwoord van de AI, Ik krijg geen antwoord als de vorige tekst erg lang is. Als de tekst daarentegen kort is, of ik verwijder de tekst en stel alleen mijn vraag, Het antwoord komt. Als ik het me goed herinner, met GPT, het verlaten van de vorige tekst gaf latere communicatie een achtergrondcontext. Bij Ollama gaat dit concept verloren?
    – als ik 'vreemde' onderwerpen begin’ (Onzinnige dingen, of oxymorons) AI-antwoorden in het Engels. Hoe moet ik deze gedragsverandering interpreteren?? Bovendien, alle volgende onderwerpen worden in het Engels behandeld, En om terug te keren naar het Italiaans moet je er heel expliciet om vragen

    Dit is om te beginnen, c

    • Livio zegt:

      We zullen de documentatie doen wanneer we deze publiceren.

      De AI weet alleen wat er in de gigabytes zit waaruit het door jou gedownloade model is samengesteld.
      De modellen die u downloadt, worden meestal bijgewerkt met internetgegevens tot ongeveer een jaar geleden. Ze leren niets en zoeken niet op internet.

      Als je geen internettoegang hebt, zou alles hetzelfde moeten werken (Maar eerst moet u de sjablonen vanaf internet hebben geïnstalleerd).

      Als je een nieuwe vraag stelt die de vorige context verlaat, werkt het en houdt het rekening met de context, maar kan het veel langzamer worden om te beantwoorden.

      Als je begint met rare onderwerpen of rare dingen doet in het Engels etc… Alleen het model dat u gebruikt, weet wat er gebeurt. Ik heb geen idee waarom hij dit doet en waarschijnlijk ook niet degenen die hem hebben getraind.

      U kunt indien nodig proberen andere sjablonen te downloaden (maar altijd klein omdat je alleen hebt 8 giga en ik denk geen CUDA)
      Probeer met qwen2.1.5b, dat is de laatste aan de onderkant van de lijst die ik heb achtergelaten in de versie 1.3. En’ Een beetje’ wild maar erg snel en voor sommige dingen is het oké.

      Als je wilt zien of Ollama toegang heeft tot de CUDA van je videokaart, druk dan op “Start Ollama Server” en zoek vervolgens in de wit-op-zwarte tekst naar wat er over CUDA staat.

    • Livio zegt:

      We hebben de OLLAMA app een beetje verbeterd
      https://www.theremino.com/files/Theremino_Ollama_V1.4.zip

      Onthoud echter dat dit slechts een eerste test is, Later zal het deel gaan uitmaken van de Theremino_LLM applicatie die vergelijkbaar zal zijn met Theremino_GPT

      En Theremino_LLM zal het allemaal doen, dat wil zeggen, om te spreken, luisteren, Domotica-apparaten bedienen, Muziek afspelen, Video's openen en downloaden, telefoon, enz..

      • Maurizio zegt:

        Hallo Livio.

        Vanmorgen heb ik een beetje’ van vrije tijd, en ik doe wat tests met Ollama – Edelsteen 2.2B, en jouw versie 1.4.
        Ik had de dialogen hier graag willen kopiëren, maar ik ontdekte dat je niet kunt markeren en kopiëren van Theremino Ollama venster.

        Ik vat samen wat me voor nu is opgevallen:
        Op mijn verzoek om een weersvoorspelling voor mijn regio, Ollama heeft 'de hond over het erf geslagen', me vertellen dat het me zeker kan helpen, maar dat er een meer gedetailleerde vraag nodig is, en dat ik moet aangeven wat voor soort informatie ik nodig heb (Percentage van de neerslag, hoeveelheid regen, Data van de te verwijzen reeks, enz). Ik heb meerdere keren moeten specificeren, met steeds meer detail, Wat wilde ik precies, Want hij bleef maar om mijn vraag heen cirkelen, in plaats daarvan vragen om antwoorden te geven. Toen ik ervan overtuigd was dat hij me voor de gek hield, En dat ik nooit het antwoord zou krijgen waar ik naar op zoek was, Hij gaf me algemene voorspellingen, maar in overeenstemming met wat is verklaard door weersvoorspellingssites. Vervolgens, gaf me de indruk dat ik op internet was.
        Echter, Door een directe vraag te stellen over hoe u toegang krijgt tot internet, antwoorden waar hij geen toegang toe heeft, noch rechtstreeks, noch via programma's, en dat zijn kennis is gebaseerd op de dataset waarop hij is getraind.
        Ik blijf achter met een twijfel: Hij leerde echt real-time informatie van het internet, of een verworven weermodel toepaste, die statistisch gezien regen in mijn omgeving voorspelt in deze tijd van het jaar? In beide gevallen, Het antwoord is een beetje’ Verontrustend. Hij loog tegen me over zijn werkelijke toegangsmogelijkheden, of de inhoud van zijn dataset doorgaf als echte informatie?
        Bovendien, als ik vraag naar plaatsen of activiteiten in mijn omgeving, Soms verzint hij niet-bestaande namen uit het niets, Of hij noemt zeer verre plaatsen als lokaal, ook in andere delen van de wereld.
        Mijn eerste indruk, die ik al had gehad met ChatGPT, is dat de AI heeft op een zeer geaccentueerde manier een volledig menselijk vermogen verworven: die van ongrijpbaar zijn, om de indruk te wekken te weten, zelfs als hij het niet weet, en meer intelligentie en kennis veinzen. Ik had liever een leuke 'ik weet het niet' gehad, of 'niet opgenomen in mijn dataset', in plaats van me te laten geloven dat hij het weet, maar dat ik het ben die de vraag verkeerd heeft gesteld.
        Want zolang de vraag maar wordt gesteld door een persoon met technische voorbereiding, geïnformeerd over de kenmerken van het systeem, AI-reacties hebben het gewicht dat ze verdienen. Maar als de gesprekspartner een kind is, of een bejaarde, Snel leren van het technische aspect, Dingen kunnen onaangename wendingen nemen.
        Ik moet er ook aan toevoegen dat na de eerste discussie over de weersvoorspelling, en na de AI expliciet te hebben gevraagd of het toegang zou kunnen hebben tot internet, Alsof ze besefte dat ze ontdekt was, naar volgende vragen over real-time informatie, Hij antwoordde eigenlijk door te zeggen dat hij geen toegang heeft tot internet en alleen gebaseerd is op zijn dataset.
        Vervolgens, voor mij blijft deze AI 'special surveillance', En als ik tijd heb, Ik zal tijdens de dialoog met de juiste programma's nagaan of er toegang is tot het netwerk.

        Dat gezegd zijnde, Ik kijk ernaar uit om de Theremino LLM te zien en te proberen, dat wezen, Voor zover ik het begrijp, Een geavanceerde domotica-controller, Ik hoop dat het niet wordt beïnvloed door de ongrijpbaarheid die ik noemde.

        Ondertussen, Ik probeer met andere modellen te praten, om de verschillen te beoordelen.

        Hallo
        Maurizio

        • Livio zegt:

          Ik zou zeggen dat je niet helemaal hebt begrepen wat AI's zijn, Ik zal proberen een korte samenvatting te maken.

          De huidige AI's zijn “Grote taalmodellen” (Groot taalmodel) En ze zijn gewoon een grote stapel “gewichten” (Vergelijkbaar met menselijke synapsen). En deze gewichten zijn getraind door het lezen van miljarden “dingen” overal te vinden.

          De AI-engine wijst eenvoudig de meest waarschijnlijke woorden aan en voegt ze samen.
          Met andere woorden, na “…Identificeer de meest waarschijnlijke woorden en plaats ze…” Het meest waarschijnlijke woord dat volgt is “samen”, Of het zou ook kunnen zijn “Zet ze achter elkaar” of andere soortgelijke dingen.

          Een zeer treffende definitie is dat AI's “Hoogopgeleide papegaaien”. Met andere woorden, ze schudden de woorden gewoon op een andere manier en zetten ze achter elkaar.

          Maar hoe komt het dan dat het lijkt dat “Begrijpen” en hebben bijna een geweten? Omdat de dimensies van hun training zo groot beginnen te worden dat ze een bepaald niveau van begrip en bewustzijn verwerven.

          Maar het is een zeer beperkt bewustzijn, aangezien we het alleen over 2B hebben (Twee miljard parameters) terwijl ChatGPT en anderen zelfs tot 100B en verder gaan.

          Met andere woorden: Wij mensen zijn niets meer dan “Opgeleide papegaaien” alleen dat onze synapsen gaan over 100 miljoenen keren groter dan de gewichten van de grootste LLM ooit gemaakt.

          Wanneer je een bepaald aantal parameters passeert, beginnen begrip en bewustzijn vanzelf op te komen. Maar houd er altijd rekening mee dat het bij 2B of zelfs 20B of zelfs 200B altijd maar kleine flitsen van begrip zijn, Ver van het menselijk bewustzijn.

          Maar het moet ook gezegd worden dat AI's, Hoewel eenvoudige papegaaien niet nutteloos zijn, Ze zijn inderdaad een fantastisch ding:

          1) Ze stellen ons eindelijk in staat om te begrijpen hoe we zelf functioneren.
          2) Ze geven ons een maatstaf voor hoeveel complexiteit er nodig is om bewustzijn te creëren.
          3) Ze kunnen nuttig zijn voor het remixen van zinnen en het synthetiseren van kennis die hier en daar is opgedaan.
          4) Ze kunnen handig zijn om snel informatie op te sporen zonder sites te zoeken en door pagina's en pagina's te scrollen.

          We moeten ze echter gebruiken voor wat ze zijn en wat ze kunnen doen.
          Bedenk welke AI je gebruikt (als het van 2B is, 20B of 200B)
          Vermijd hem de bereidheid om te liegen.
          Soms lijkt het wil, maar het is slechts het resultaat van een mechanisme dat de meest waarschijnlijke woorden samenvoegt.

          Wij mensen ook “Laten we de meest waarschijnlijke woorden samenstellen” maar in plaats van 2 B hetzij 200 B waar we over gaan 20 000 000 000 B

  10. Livio zegt:

    En als ik echt eerlijk moet zijn… er zijn mensen die nog minder betrouwbaar zijn dan een AI 2B.
    – Mensen die geloven dat de aarde plat is.
    – Mensen die al onze middelen in wapens steken in plaats van in de gezondheidszorg.
    – Mensen die, als je ze vraagt wat een Newton Metro is, denken dat het de metro is…
    – Enz..

    Maar probeer een AI te vragen, zelfs het kleinste ding is een Newtonmeter en weet het meestal.

    • Maurizio zegt:

      Hallo Livio.

      Zoals altijd, je slaagde erin om meer in een paar zinnen samen te vatten dan ik kon begrijpen met urenlang onderzoek op internet.
      Ik ben het eens met alles wat je schreef, En je steekt er veel tijd in’ van onderzoeksideeën die moeten worden onderzocht.
      Maar het feit blijft dat AI's hun intrede doen (Te erg) Snel in ons leven. Een paar dagen geleden zag ik een advertentie voor de nieuwe generatie computers, die zal worden uitgerust met kunstmatige intelligentie en in staat zal zijn om een dialoog aan te gaan met de gebruiker, Ze zeggen al dat ze het toetsenbord eraf gaan halen omdat het nutteloos zal zijn.
      En ik verwacht dat hetzelfde zal gebeuren met de telefoonbeantwoorders die de inkomende oproepen van een bedrijf sorteren, of in servicecentra, Ziekenhuizen..
      Dit baart me zorgen.
      Waarom AI, We zeiden het net, worden steeds meer bewust, en zich op een steeds humanere manier gedragen, dat wil zeggen, in werkelijkheid op een steeds dommere manier.
      Mijn vrees is dat de zoektocht naar AI-bewustzijn niet zal leiden tot meer intelligentie, maar alleen tot grotere domheid.
      We lopen het risico dat we niet zozeer met een kunstmatige intelligentie worden geconfronteerd, maar eerder tot een kunstmatige domheid.
      En mensen zorgen voor de rest, die de beweringen van AI als waar zal aannemen, We beschouwen ze als betrouwbaarder omdat we de neiging hebben om computers als foutbestendig te beschouwen.

      Ik ben geen tegenstander van AI's, Integendeel. Ik zie ze als een waardevolle hulp in ons leven. Maar ik vraag me af of wat is genomen de juiste richting is.
      Vanuit mijn oogpunt, beter een gespecialiseerde AI, die maar één ding goed weet te doen, zonder de aanmatiging van een geweten.

      Uiteraard, We weten dat het discours heel breed is, En vanaf hier zouden we kunnen beginnen te praten over sociologie, Ethiek en filosofie, en ik weet niet of deze blog de meest geschikte plek is.

      Daarom blijven we binnen het bestek van deze blog, Persoonlijk vraag ik me af, Zoals reeds vermeld in eerdere toespraken, Of de huidige technologie winstgevend kan worden gebruikt om IT in specifieke taken te trainen. U hebt zelf gesproken over het instrueren met de documenten van het Theremino-systeem.
      Het zou een kwestie zijn van het uitvoeren van een chirurgische ingreep’ een soort lobotomie, waardoor AI minder bewust zou worden, maar meer ervaren in wat we nodig hebben.
      Op dit moment mijn korte onderzoek (Zoals jullie weten is mijn vrije tijd heel weinig) hebben geen resultaten opgeleverd, Ik heb een manier gevonden om het 'karakter' te veranderen’ van modellen, maar niet hun databases.
      Je hebt vast en zeker meer informatie, Ik zou het op prijs stellen als je de tijd zou kunnen vinden om ze te delen.

      Hallo
      Maurizio

  11. Livio zegt:

    Het zombificeren van de meeste mensen is al aan de gang en de belangrijkste boosdoeners zijn smartphones, Naar de Facebookpagina, tiktok enz..

    Inmiddels hebben de meeste mensen nog maar één hand en zijn hun hersenen kapot en zullen ook AI's hun steentje bijdragen, maar in kleine mate, om dit percentage te verhogen.

    Aan de andere kant, voor degenen die willen studeren en echt willen leren, AI's zijn een krachtig hulpmiddel dat ons zal helpen elk probleem op te lossen, inclusief zombisatie, oorlogen enz..

    Toen ik een kind was, moest ik, als ik iets wilde vinden, de motor nemen, Ga naar de bibliotheek, hoop een boek te vinden dat erover praat, Zoeken in het boek, aantekeningen maken enz.
    Met het internet kan ik zoeken naar hetzelfde in 30 seconden en de volgende minuut kan ik al op zoek naar een andere en hoef ik niet eens de auto te nemen en te vervuilen.
    AI's zijn een nieuwe sprong voorwaarts tussen de bibliotheek en het internet, of hoe je met de hand schrijft op papyri en gedrukte boeken. En je hakt niet eens bomen om papier te maken.

    En aangezien wij mensen te dom zijn (Dit blijkt uit overbevolking en oorlogen) Ik geloof echt dat onze enige kans om onszelf te redden zal zijn om in staat te zijn een intelligentie te creëren die capabel genoeg is om de oplossingen te vinden die we niet weten te vinden.

    En’ Een gevecht tegen de tijd: of we creëren het snel genoeg, of we worden geconfronteerd met verzekerde vernietiging. Je kunt niet comprimeren 10 Miljarden mensen op een planeet die hen gelukkig zou kunnen laten leven 10 miljoenen.

    • Maurizio zegt:

      MAH..
      Uiteraard (Miljarden mensen op een planeet die hen gelukkig zou kunnen laten leven, ormai) concordo con te per la maggior parte di quello che hai scritto.
      Anche io sono felice di non dover più andare a cercare le informazioni nelle diverse biblioteche (omdat elk zijn eigen specialisatie had, en het boek dat ik zocht was niet altijd in het nabijgelegen boek, Soms moest ik met de trein.).
      Ik ben het internet meer dan dankbaar en ben me er terdege van bewust hoezeer deze tool mijn onderzoek en het verwerven van informatie heeft versneld.
      Maar 'minimale' AI, waar we het over hebben, blijft me verbijsteren.
      Niet vanwege het verkeerde gebruik dat iemand er misschien van maakt, maar voor het feit dat het mij lijkt dat er een reëel risico bestaat dat menselijke domheid wordt gerepliceerd en uitgebreid in plaats van intelligentie.
      Meer dan je zorgen maken over het verkeerde gebruik, Ik vraag me af hoe ik het gebruik ervan kan verbeteren
      gecorrigeerd. En ik denk dat dat is wat je al doet.

      • Livio zegt:

        De AI die je definieert “minimale”, er zijn er veel en sommige zelfs mooie grote (407 B), Jammer dat om ze te gebruiken je nodig hebt betekent dat het moeilijk in elkaar te zetten is.
        Ik zou ze echter min of meer beschouwen als een studie over wat er kan worden gedaan en hoeveel middelen er nodig zijn.

        Natuurlijk kan het niet zulke precieze antwoorden geven als Tweelingen (die momenteel het beste is voor algemeen gebruik) of hoeveel PHIND (die ik het beste vind voor technische dingen). Maar het kan ook nuttig zijn, altijd rekening houdend met het feit dat het een beetje’ als een notitieboekje en niets meer.

        En het helpt zeker onze medewerker Leo, die in China is terwijl de elektronische muur Google blokkeert, PHIND en alle andere westerse AI's.
        De Chinezen hebben iets door hen gemaakt, maar het is onbruikbaar, het heeft geen API's om te communiceren zoals ChatGPT en het is gewoon, Althans voorlopig.

  12. Livio zegt:

    En als iemand AI misbruikt, Dat doet hij! Het is niets vergeleken met wat ze al doen met dingen als geld, hebzucht, benzodiazepinen, Suiker, De bommen, Oorlogsgeweren, Ik Vechters, antipersoonsmijnen enz..

    Om te begrijpen wat we echt riskeren, bekijk een minuut van deze video
    Vanaf hier:
    https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s

  13. theremino zegt:

    We zijn nog een beetje beter geworden’ de OLLAMA-app
    https://www.theremino.com/files/Theremino_Ollama_V1.5.zip

    De commando's CTRL-C en CTRL-V om te kopiëren werken nu.
    En het werkt ook CTRL-Z en CTRL-Y, die UNDO en REDO zijn

  14. Livio zegt:

    Het kan gebeuren dat Ollama wordt geüpdatet en dan niet meer werkt, een fout plaatsen die van invloed is op sommige C-DLL's.

    Om het probleem op te lossen, downloadt u dit bestand en installeert u de “Looptijd del C”

    https://www.theremino.com/files/VC_redist.x64.exe.zip

    Je moet het uit de ZIP halen en het uitvoeren, Het duurt enkele tientallen seconden.

    Als u wilt, kunt u ook zoeken “VC_redist.x64.exe” op Google en download het van Microsoft-sites.

  15. Marco zegt:

    Hallo Livio,
    come sempre grazie per il tuo grande lavoro.
    Ho fatto qualche piccolo esperimento con Ollama, in particolare il modello Gemma 2:9b.

    Dalla sintesi di un breve dialogo, che allego qui di seguito, penso si possa intuire come questi sistemi siano già orientati all’interazione con il mondo dei sensori/attuatori. Se non corro troppo in avanti si potrebbe quindi utilizzare un LLM per governare sensori/attuatori addirittura passando solo per dialoghi vocali (penso a Theremino Voice) En’ gecorrigeerd?

  16. Marco zegt:

    LLM:
    Hai altre domande?

    HUMAN
    Se un attuatore idraulico è mosso da un comando inviato tramite stringa del tipoSEND nnndove nnn è un numero compreso tra 0 en 999, per spostare l’attuatore a metà corsa quale stringa dovrei inviare come comando?

    LLM:
    Per spostare l’attuatore a metà corsa, dovresti inviare la stringa **SEND 500**.
    Dat is waarom:
    * La stringaSENDindica che si sta inviando un comando all’attuatore.
    * I tre numeri (“nnn”) rappresentano la posizione dell’attuatore, met 0 come posizione iniziale e 999 come posizione massima.
    * A metà corsa, il valore dovrebbe essere il 50% della corsa totale (999), vervolgens 999 / 2 = 500.

    HUMAN
    rechts, infatti il valore dinnnstabilisce una proporzione lineare tra spostamento e valore stesso.
    Adesso ti chiedo, se ti arriva il comandoSEND 250come/dove si sposterebbe l’attuatore?

    LLM:
    Se ti arriva il comandoSEND 250”, l’attuatore si sposterà a un quarto della corsa totale.
    * Ricorda che 0 è la posizione iniziale e 999 la posizione massima.
    * De waarde 250 rappresenta il 25% (250/999) della corsa totale.
    Hai altre domande?

    HUMAN
    Genera tu il comando per spostare l’attuatore a tre quarti della sua corsa massima, che definiremo comeabbastanza apertomentre ad un quarto della sua corsa l’attuatore èpoco aperto”. Limita la tua risposta alla generazione del comando diabbastanza aperto”.

    LLM:
    SEND 750

    HUMAN
    Adesso porta l’attuatore in posizione poco aperta

    LLM:
    SEND 250

    HUMAN
    Adesso portalo in una posizione quasi chiusa, soltanto pochissimo aperta

    LLM:
    SEND 10

    HUMAN
    Goed, sei stato addestrato adeguatamente per dare comandi agli attuatori!

    LLM:
    Mi è piaciuto allenarmi con te! Sembro aver imparato a generare i comandi corretti per l’attuatore idraulico.
    Se avessi bisogno di altri esercizi o di aiuto con altre attività, non esitare a chiamarmi! Sono sempre pronto ad imparare e ad essere utile.
    ——————–

    • Livio zegt:

      Si ma ci sono un podi problemini
      1) Che il giorno dopo ha dimenticato tutto.
      2) Che è troppo lento per gran parte delle cose davvero utili.
      3) Che per insegnargli anche le cose più semplici devi perdere un mucchio di tempo e per le cose un pomeno semplici può essere cosìtesta durache fai prima a fartele.
      4) enz…

      Tutte cose risolvibili e c’è gente che sta proprio facendo queste cose.
      Ma purtroppo le risorse, il tempo e i mezzi che abbiamo attualmente sono insufficienti.
      Non ho ancora la minima idea di come fare ad “trein” i modelli e da quel che ho letto non è per niente facile. Bisognerebbe imparare molte cose e perdere una infinità di tempo che non abbiamo.

      Il modo che hai usato per “trein” non è un vero addestramento, stai solo mettendo insieme qualche frase di contesto e ottenendo qualche risposta. Può funzionare solo per cose ultra semplici e con una bassa efficienza. Nel senso che se complichi un pole esigenze, poi diventa difficile tenere tutto sotto controllo e fargli realmente fare quel che vuoi e oltretutto diventerebbe anche terribilmente lento a rispondere.

      Hoe dan ook, ja, concordo con te, quello che hai fatto vedere è più o meno quello che si deve fare. Ma temo che farlo davvero funzionare per controllare qualcosa, sia terribilmente più difficile di quel che sembra dalle tue prove.

      Se hai tempo e voglia potresti esplorare tu e cercare di capireprobabilmente partire da queste pagine potrebbe aiutare:
      https://github.com/ollama/ollama/blob/main/docs/api.md

      Io per ora non ho capito gran che, anche perché sto finendo alcune applicazioni importanti e di tempo ne ho pochissimo.

  17. Marco R zegt:

    Grazie Livio per le delucidazioni, effettivamente questi sistemi sono soprattutto ancora troppo lenti in relazione alle risorse che occupano. Dovuto probabilmente ai tempi di calcolo e alla quantità enorme di dati che devono elaborare, per spaziare da Giulio Cesare ai problemi di fisica.
    Mi immagino solo la lentezza con cui potrebbe gestire un attuatore tramite feedback di uno o più sensori….
    Grazie per il link, anche se temo di non avere tali e tante conoscenze informatiche.

    • Livio zegt:

      Purtroppo qui non si tratta solo di conoscenze informatiche ma di conoscenze specialistiche sulle tecniche AI. E anche chi mastica informatica dal 1970 come me, quando si inizia a parlare di embeddings degli LLM ci capisce poco o niente.

      Een beetje’ per volta capiremo, ma mentre c’è gente che non fa altro da decine di anni, noi siamo per forza molto più lenti, dato che ci occupiamo di molte cose diverse, elettronica, sensoren, software, chimica, musica ecc

  18. theremino zegt:

    Piccoli miglioramenti…
    https://www.theremino.com/files/Theremino_Ollama_V1.8.zip

    Sono solo esperimentici vorrà un poper finire il vero Theremino_LLM

  19. Livio zegt:

    Piccoli miglioramenti…
    https://www.theremino.com/files/Theremino_Ollama_V1.9.zip

    Interessanti gli LLMUncensored” !!!

    Provate sempre i modelli 2B, altrimenti quelli più grandi sarebbero troppo lenti sui computer normali, senza Octucore, NPU, Cuda ecc

    Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM

Laat een antwoord achter

Uw e-mailadres zal niet worden gepubliceerd.