Blog

Rédiger des questions ici, Commentaires, nouvelles idées et recommandations. D'écrire tout simplement le nom ou un surnom comme “J'ai” ou “Pippo”, laissant les autres cases vides.

Ajouter également le “Messagerie” ne sert qu'à distinguer avec certitude. Si vous souhaitez ajouter le mail le faire en toute confiance, Nous avons mieux à faire, Nous recueillons les adresses pour le spam.

Le Blog n’est pas tout sur cette page, vous allez dans le menu “Blog” Choisissez un sujet.

Si vous ne trouvez pas la rubrique blog approprié, entrer sur cette page et nous allons, trouver la bonne section, ou créer un nouveau.


Insérer des images et de mettre en évidence les messages blog

Insérer une image:

<img src ="HTTPS://www.xxxx.yyyy.ZZZZ.jpg" Alt ="Description de l'image"/>

Mettre en surbrillance une partie du texte:

<span style ="couleur d'arrière-plan: #ffff99;">TEXTE DE POINT CULMINANT</travée>

N'hésitez pas à faire des erreurs et expériences dans les messages. Si quelque chose se passe mal, Il suffit d'écrire un second poste, avec des corrections à faire. Nous allons faire les corrections, et enfin nous annulerons les messages de service.

  1. ROBERTO dit:

    Bonjour Livio, Toujours beaucoup de compliments pour le travail que vous faites.
    J’ai téléchargé le phonomètre car j’aimerais essayer de faire des mesures acoustiques d’une pompe à chaleur (Unité de condensation extérieure) à divers régimes de fonctionnement. Je ne trouve pas, si je dis bien, Conseils concernant les schémas/connexions de microphone ECM8000 au master dans les ressources téléchargées.
    Pourriez-vous me donner des informations à ce sujet?

    Merci et bon travail.

    Roberto

  2. Livio dit:

    Malheureusement, Theremino GPT ne fonctionne plus, nous trouverons une solution mais en attendant pour la faire fonctionner, vous devez créer votre propre clé chez OpenAI comme expliqué dans le fichier « Theremino_GPT_Help.pdf » que vous pouvez télécharger à partir d’ici:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    Que s’est-il passé?
    Quelqu’un dans les jours qui ont suivi 7 Décembre à ce jour a utilisé GPT4 donc “immodéré” Et en quelques jours, il a utilisé un million de jetons, par envoi groupé de la clé API associée à notre compte.

    Profitons-en pour expliquer à ceux qui ne le savent pas encore que GPT4 est très cher, jusqu’à trente fois plus cher que GPT 3.5 turbo.

    De plus, GPT4 est lent à répondre, il doit donc être utilisé avec parcimonie et uniquement si nécessaire.

    ———————

    Dans les prochains jours, nous publierons une nouvelle version de Theremino GPT, Soyez donc prudent avec ces messages sur la page d’actualités.

    Pour l'instant, comme déjà écrit, si vous souhaitez utiliser Theremino GPT, vous devez créer votre propre clé chez OpenAI.

  3. Livio dit:

    Nous avons réinitialisé Theremino GPT pour qu’il fonctionne.

    La version 4.7 Restaurez le fonctionnement sans avoir à créer votre propre clé (en laissant la case OpenAI-KEY vide).

    Pour rappel, notre API-KEY ne fonctionne qu’avec GPT-3.5-turbo.

    Profitons-en pour expliquer à ceux qui ne le savent pas encore que GPT4 est très cher, jusqu’à trente fois plus cher que GPT 3.5 turbo. De plus, GPT4 est lent à répondre, il doit donc être utilisé avec parcimonie et uniquement si nécessaire.

    Télécharger 4.7 d'ici:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. AlbertoR dit:

    Bonjour Livio et tous les développeurs de Theremino. Je vous félicite vraiment pour ce que vous avez fait.

    Je voulais partager le fait que je me suis connecté avec succès à un module IoT (Le TTGO7ver1.3) une sonde I2C très intéressante, au moins pour moi. Il s’agit de la sonde Bosh avec capteur BME280, qui est un capteur de pression, Température et humidité. Le spécimen que j’ai acheté (Une dizaine d’euros) est la marque mikroBUS.

    Évidemment, j’ai modifié le firmware pour qu’il le lise correctement et je signale le programme ci-dessous, Peut-être est-ce utile comme exemple supplémentaire.

    J’ai fait la connexion physique aux broches 21(SDA) et 22(SCL) qui sont les standards pour ESP32 dans les communications I2C. J’ai vu que dans les autres exemples, vous pouvez les modifier à volonté avec la bibliothèque Wire, Je n’ai pas réussi ici et je les ai laissés comme ça.

    Dans l’IotHAL, les codes PIN de données doivent être définis sur “Gen_in_float”.

    L’alimentation est de 3,3V.

    Merci encore. Bonne Journee.
    Alberto

    firmware:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber dit:

    Bonjour Livio
    Le système Theremino avec des mises à jour (par exemple Graphiques) est vraiment devenu un outil unique. Félicitations.
    Une curiosité. J’ai vu votre intérêt pour l’Intelligence Artificielle, J’essaie moi-même de créer des GPT personnalisés sur des sujets qui m’intéressent. Selon vous, il pourrait être possible d’avoir un gpt personnalisé pour créer un code à coller dans l’automatisation theremino expliquant ce que je veux faire ?

    • Livio dit:

      Ce serait une grande chose de réussir, mais nous n’avons pas encore appris à les former.
      Ce serait génial si vous pouviez entraîner un modèle en lui donnant tous les PDF que nous avons écrits, Nous en avons des centaines et cela pourrait grandement faciliter l’utilisation de nos applications.

      Bientôt, nous publierons Theremino_LLM qui ne dépend plus d’OpenAI mais uniquement de modèles open source.
      Et Theremino_LLM écoutez, Parle, Appeler, Jouez la musique, Exécute les commandes domotiques, etc.…

      Mais pour l’instant, nous nous limitons à utiliser les produits prêts à l’emploi, qui se trouvent sur cette page:
      https://ollama.com/library

      • geofaber dit:

        Très bien, J’ai imaginé que tu étais sur la balle.
        Dans mon ignorance et avec les premiers essais, la première chose que j’ai réalisée, c’est que l’IA fait plus ce qu’elle veut et non ce que vous voulez et la formation n’est pas claire du tout, du moins ce qu’un simple utilisateur peut faire avec le “créez votre propre GPT”.

  6. geofaber dit:

    à l’intérieur de chatGPT, il y a l’option “explorer GPT” Et vous pouvez les faire “Crée”
    vous pouvez les télécharger dans votre GPT personnalisé pour télécharger des fichiers de référence, et également des instructions de référence.
    Les commentaires que vous leur donnez pendant la session sont perdus lorsque la session est fermée.
    Vous pouvez également interagir avec le monde extérieur via l’API (Mais c’est trop compliqué pour moi)
    Par exemple, j’en crée un pour comparer les fichiers de vibration, Mais il n’y a pas beaucoup de cohérence dans ce qu’il fait, Par exemple, l’amortissement les calcule parfois d’une manière, parfois d’une autre, J’essaie de le limiter à des instructions plus précises

    • Livio dit:

      Compris, Quoi qu’il en soit, nous nous séparons d’OpenAI et à l’avenir, nous ne ferons que des choses Open Source avec Ollama.

      OpenAI se devait d’être “Ouvert” Mais ensuite, il a trompé tout le monde et si vous voulez utiliser des abeilles, vous devez les payer. Nous avons donc décidé de les abandonner.

  7. geofabe dit:

    Et’ Une très bonne chose, Je vais essayer de jeter un coup d’œil à Ollama

    • Livio dit:

      Si vous faites des tests, utilisez gemma2:2B qui est rapide et léger
      Gardez à l’esprit que tout fonctionnera localement et que vous devez donc avoir beaucoup de RAM (minimum 8 Giga pour les modèles plus petits mais en mieux 16, 32 ou 64 Giga)
      Si vous souhaitez utiliser les modèles plus grands, en plus de la RAM, vous aurez également besoin d’une carte vidéo récente qui active CUDA sur Ollama, sinon, le processeur va à la commande 90 100% et réagissent lentement.

      Par gemma2:2b vous allez assez vite même sur de petites machines et il contient déjà une quantité incroyable d’informations, J’ai tout demandé et il sait tout. Il parle également bien dans toutes les langues et est très similaire à ChatGPT 3, le tout en un peu plus de 2 Giga.

    • Livio dit:

      Si vous voulez faire quelques tests, vous pouvez télécharger cette petite application que nous utilisons pour tester les possibilités d’Ollama
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • Maurizio dit:

        Bonjour Livio.

        J’ai essayé de lancer l’exécutable, Mais je ne comprends pas comment faire pour que cela fonctionne.
        Si j’appuie sur « afficher les informations sur le modèle », Je reçois une fenêtre cmd.exe qui dit “Ollama” n’est pas reconnue comme une commande interne ou externe,
        un programme exécutable ou un fichier batch.’
        J’ai essayé d’appuyer sur 'démarrer le serveur ollama sur cet ordinateur', et dans la fenêtre du programme, je vois 'Maintenant, le serveur Ollama fonctionne sur cet ordinateur.

        Pour accéder à ce serveur à partir d’autres appareils:
        – Laissez la fenêtre COM ouverte
        – Utiliser l’adresse IP de cet ordinateur, de la liste suivante:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 Connexion locale (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 Connexion locale (LAN)* 1
        169.254.139.102 Connexion locale (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 Une connexion Wi-Fi’

        De plus,, Je reçois souvent une fenêtre d’exception qui n’est pas gérée dans l’application’

        J’ai essayé de télécharger et d’installer ollama, et l’installation a été réussie, Mais cela ne fonctionne pas de la même manière.
        Maintenant, il me semble: Modèle non trouvé, Veuillez le télécharger et réessayer.

        Vous pouvez écrire plus d’informations?

        Merci
        Maurizio

        • Livio dit:

          Tout d’abord, vous devez installer ollama et je pense que vous l’avez fait
          Ensuite, vous devez installer les modèles et cela fonctionne.

          Choisissez gem2:2b ou un autre petit dans la boîte du modèle.
          Appuyez ensuite sur “Installer le modèle” et attendez qu’il soit installé.

          Si un modèle est manquant dans la boîte de modèle,
          Prix “Modifier la liste des modèles” , puis choisissez sur la page Modèles
          et enfin l’ajouter à la liste.

          Si vous ne parvenez toujours pas à mettre skype sur le PC
          Et appelez-moi comme livio_enrico

        • geofaber dit:

          Cela fonctionne pour moi.
          mais pas toujours.

          De temps en temps, il me semble aussi “Modèle non trouvé, veuillez le télécharger et réessayerModèle introuvable, Veuillez le télécharger et réessayer”
          Mais si je vais directement à l’invite c;fenêtres, etc. fonctionne

          • Livio dit:

            Vous avez installé le modèle le plus petit et le plus rapide?
            gemma2:2b

            Combien de temps faut-il pour répondre la première fois?
            (quand il répond)

            Je dis cela parce que si vous installez des modèles très lents ou que vous avez peu de RAM ou que vous avez un processeur lent, Ensuite, cela peut prendre des dizaines de secondes, puis expirer.

            Espérons que le bourgeon2:2b devrait répondre à la première question préjudicielle par 7 ou 10 secondes au maximum. Et aux questions suivantes immédiatement, c’est-à-dire quelques dixièmes de seconde. Et les mots doivent toujours les générer rapidement, Près de dix mots par seconde.

            • geofaber dit:

              oui j’ai installé gemma2:2b cela ne prend pas des dixièmes de seconde mais aussi 7-8 secondes. Mais je pense que c’est lié à mon PC.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • Livio dit:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) De 16 giga l’una e aggiungerle alla DIMM che hai.
                Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.

                Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
                E in tutti i casi fai attenzione al numero di PIN, al DDR 3 ou 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.

                En ce qui concerne leur formation, c’est une toute autre affaire, Pour l’instant, nous en avons déjà assez pour pouvoir les faire fonctionner correctement dans l’application Theremino_LLM qui sera similaire à Theremino_GPT (qui fait tout, Parle, Écouter, Contrôler les appareils domotiques, Jouez de la musique et des vidéos, etc.)

  8. Livio dit:

    J’espère que vous n’utilisiez pas déjà la section “Serveur” parce que cela ne fonctionnait toujours pas bien.
    La partie serveur vous permet d’installer Ollama sur un seul ordinateur (éventuellement avec beaucoup de RAM et avec CUDA) puis l’utiliser à partir de tous les autres PC du réseau.
    Mais si vous travaillez sur un seul PC, vous n’en avez pas vraiment besoin.

    Dans la version 1.2 que vous télécharger ici, La section serveur fonctionne également bien:
    https://www.theremino.com/files/Theremino_Ollama_V1.2.zip

  9. Livio dit:

    Il y avait quand même un défaut ici c’est la version 1.3
    https://www.theremino.com/files/Theremino_Ollama_V1.3.zip

  10. Maurizio dit:

    Bonjour Livio.
    J’ai installé la version 1.3 et suivre vos instructions fonctionne maintenant.
    Certainement un petit manuel, même une petite page, pourrait aider.
    Par exemple,, rien que de l’interface, je n’avais pas compris le truc du serveur.
    La vitesse de réponse dans mon cas est acceptable, bien à l’époque que vous avez mentionnée.

    J’ai quelques questions:
    – l’IA répond à l’aide d’une base de données hors ligne ou effectue des recherches autonomes à l’aide de la connexion de l’ordinateur hôte?
    – Si vous n’avez pas accès à Internet par défaut, Vous pouvez l’activer?
    – J’ai remarqué que si je posais une deuxième question en l’ajoutant à la réponse de l’IA, Je n’obtiens pas de réponse si le texte précédent est très long. Si, en revanche, le texte est court, soit je supprime le texte et pose uniquement ma question, La réponse vient. Si je me souviens bien, avec GPT, le fait de laisser le texte précédent donnait aux communications ultérieures un contexte d’arrière-plan. Avec Ollama, ce concept est perdu?
    – si je commence des sujets « étranges »’ (des choses absurdes, ou oxymores) L’IA répond en anglais. Comment dois-je interpréter ce changement de comportement ?? De plus,, tous les sujets suivants sont abordés en anglais, Et pour revenir à l’italien, il faut le demander de manière assez explicite

    C’est pour commencer, c

    • Livio dit:

      Nous ferons la documentation lorsque nous la publierons.

      L’IA ne sait que ce qu’il y a dans les gigaoctets dont est composé le modèle que vous avez téléchargé.
      Les modèles que vous téléchargez sont généralement mis à jour avec des données Internet jusqu’à il y a environ un an. Ils n’apprennent rien et ne font pas de recherches sur Internet.

      Si vous n’avez pas accès à Internet, tout devrait fonctionner de la même manière (Mais d’abord, vous devez avoir les modèles installés à partir d’Internet).

      Si vous posez une nouvelle question en sortant du contexte précédent, cela fonctionne et prend en compte le contexte, mais peut devenir beaucoup plus lent à répondre.

      Si vous commencez par des sujets étranges ou faites des choses bizarres en anglais, etc… Seul le modèle que vous utilisez sait ce qui se passe. Je n’ai aucune idée de pourquoi il fait cela et probablement pas plus que ceux qui l’ont formé.

      Vous pouvez essayer de télécharger d’autres modèles si nécessaire (mais toujours petit puisque vous n’avez 8 giga et je pense qu’il n’y a pas de CUDA)
      Essayez avec qwen2.1.5b qui est le dernier en bas de la liste que j’ai laissé dans la version 1.3. Et’ Un peu’ sauvage mais très rapide et pour certaines choses ça va.

      Si vous voulez voir si Ollama peut accéder au CUDA de votre carte vidéo, appuyez sur “Démarrer Ollama Server” puis recherchez dans le texte blanc sur noir ce qu’il dit sur CUDA.

    • Livio dit:

      Nous avons un peu amélioré l’application OLLAMA
      https://www.theremino.com/files/Theremino_Ollama_V1.4.zip

      N’oubliez pas, cependant, qu’il ne s’agit que d’un premier test, plus tard, il fera partie de l’application Theremino_LLM qui sera similaire à Theremino_GPT

      Et Theremino_LLM fera tout, c’est-à-dire, pour parler, écouter, Contrôler les appareils domotiques, Jouer de la musique, Ouvrir et télécharger des vidéos, téléphone, etc..

      • Maurizio dit:

        Bonjour Livio.

        stamattina ho un po’ de loisirs, et je fais quelques tests avec Ollama – Gem 2.2B, et votre version 1.4.
        J’aurais aimé copier les dialogues ici, mais j’ai trouvé que vous ne pouvez pas mettre en surbrillance et copier à partir de la fenêtre de Theremino Ollama.

        Je résume ce que j’ai remarqué pour l’instant:
        À ma demande de prévisions météo pour ma région, Ollama a « battu le chien dans la cour de la ferme », me disant que cela peut certainement m’aider mais nécessite une question plus détaillée, et que je dois préciser le type d’informations dont j’ai besoin (Pourcentage des précipitations, quantité de pluie, Dates de la plage à laquelle se référer, etc.). J’ai dû préciser plusieurs fois, avec toujours plus de détails, Qu’est-ce que je voulais exactement, Parce qu’il n’arrêtait pas de tourner autour de ma question, demandant plutôt de donner des réponses. Quand j’étais persuadée qu’il se moquait de moi, Et que je n’obtiendrais jamais la réponse que je cherchais, Il m’a donné des prédictions génériques, mais conforme à ce qui a été déclaré par les sites de prévisions météorologiques. Puis, m’a donné l’impression d’avoir accédé à Internet.
        Cependant, en posant une question directe sur la façon dont vous accédez à Internet, répond qu’il n’a pas accès à, ni directement ni par l’intermédiaire de programmes, et que ses connaissances sont basées sur le jeu de données sur lequel il a été formé.
        Je reste un doute: Il a vraiment appris des informations en temps réel sur Internet, ou appliqué un modèle météorologique acquis, qui prédit statistiquement la pluie dans ma région à cette période de l’année? Dans les deux cas, La réponse est un peu’ inquiétant. Il m’a menti sur ses réelles possibilités d’accès, ou faire passer le contenu de son ensemble de données pour de véritables informations?
        De plus,, lorsque je pose des questions sur les lieux ou les activités autour de ma région, Parfois, il invente des noms inexistants à partir de rien, ou il mentionne des lieux très éloignés comme locaux, également dans d’autres parties du monde.
        Ma première impression, que j’avais déjà eu en utilisant ChatGPT, c’est que l’IA a acquis de manière très accentuée une capacité tout à fait humaine: celle d’être insaisissable, pour donner l’impression de savoir même quand on ne sait pas, et feint une plus grande intelligence et une plus grande connaissance. J’aurais préféré un joli 'je ne sais pas', ou « Non inclus dans mon ensemble de données », au lieu de me faire croire qu’il sait mais que c’est moi qui ai mal posé la question.
        Parce que tant que la question est posée par une personne ayant une préparation technique, informé des caractéristiques du système, Les réponses de l’IA ont le poids qu’elles méritent. Mais si l’interlocuteur est un enfant, ou une personne âgée, Apprentissage rapide de l’aspect technique, Les choses pourraient prendre des tournures désagréables.
        Je dois également ajouter qu’après la discussion initiale sur les prévisions météorologiques,, et après avoir explicitement demandé à l’IA si elle pouvait avoir accès à Internet, comme si elle s’était rendu compte qu’elle avait été découverte, aux questions ultérieures sur les informations en temps réel, Il a en fait répondu en disant qu’il n’avait pas accès à Internet et qu’il se basait uniquement sur son ensemble de données.
        Puis, pour moi, cette IA reste une « surveillance spéciale », Et si j’ai le temps, Je vérifierai auprès des programmes appropriés tout accès au réseau pendant le dialogue.

        Cela étant dit, J’ai hâte de voir et d’essayer le Theremino LLM, c’est-à-dire, Pour autant que je comprenne, Un contrôleur domotique avancé, J’espère qu’il n’est pas influencé par le caractère insaisissable que j’ai mentionné.

        Pendant ce temps, J’essaie de parler à d’autres modèles, pour évaluer les différences.

        Salut
        Maurizio

        • Livio dit:

          Je dirais que vous n’avez pas tout à fait compris ce que sont les IA, Je vais essayer de faire un bref résumé.

          Les IA actuelles sont “Grands modèles de langage” (Grand modèle de langage) et ils ne sont qu’un gros tas de “poids” (Similaire aux synapses humaines). Et ces poids ont été entraînés en lisant des milliards de “choses” On le trouve partout.

          Le moteur d’IA se contente d’identifier les mots les plus probables et de les assembler.
          En d’autres termes, après “…identifier les mots les plus probables et les mettre…” Le mot le plus probable qui suit est “ensemble”, ou il pourrait aussi s’agir “les mettre l’un après l’autre” ou d’autres choses similaires.

          Une définition très appropriée est que les IA sont “Perroquets très instruits”. En d’autres termes, ils mélangent simplement les mots d’une manière différente et les mettent successivement.

          Mais alors, comment se fait-il qu’il semble que “Comprendre” et avoir presque une conscience? Parce que les dimensions de leur formation commencent à être si grandes qu’ils acquièrent un certain niveau de compréhension et de conscience.

          Mais c’est une conscience très limitée puisque nous ne parlons que de 2B (Deux milliards de paramètres) tandis que ChatGPT et d’autres vont même jusqu’à 100B et au-delà.

          En d’autres termes: Nous, les humains, ne sommes rien de plus que “Perroquets éduqués” seulement que nos synapses sont à peu près 100 des millions de fois plus que les poids du plus grand LLM jamais créé.

          Lorsque vous passez un certain nombre de paramètres, la compréhension et la conscience commencent à surgir d’elles-mêmes. Mais gardez toujours à l’esprit qu’avec 2B ou même 20B ou même 200B, ce ne sont toujours que de petits éclairs de compréhension, Loin de la conscience humaine.

          Mais il faut aussi dire que les IA, Bien que de simples perroquets ne soient pas inutiles, En effet, ils sont une chose fantastique:

          1) Ils nous permettent enfin de comprendre comment nous fonctionnons nous-mêmes.
          2) Ils nous donnent une mesure de la complexité qu’il faut pour créer une conscience.
          3) Ils peuvent être utiles pour remixer des phrases et synthétiser des connaissances prises ici et là.
          4) Ils peuvent être utiles pour rechercher rapidement des informations sans rechercher des sites et faire défiler des pages et des pages.

          Cependant, nous devons les utiliser pour ce qu’ils sont et ce qu’ils peuvent faire.
          Réfléchissez à l’IA que vous utilisez (s’il s’agit de 2B, 20B ou 200B)
          Évitez de lui attribuer une volonté de mentir.
          Parfois, cela ressemble à de la volonté, mais ce n’est que le résultat d’un mécanisme qui rassemble les mots les plus probables.

          Nous, les humains, aussi “Rassemblons les mots les plus probables” mais au lieu de 2 B ou 200 B nous sommes sur 20 000 000 000 B

  11. Livio dit:

    Et si je dois vraiment être honnête… il y a des gens encore moins fiables qu’un IA 2B.
    – Les gens qui croient que la terre est plate.
    – Des gens qui jettent toutes leurs ressources dans les armes plutôt que dans les soins de santé.
    – Les gens qui, si vous leur demandez ce qu’est un métro Newton, pensent que c’est le métro…
    – Etc..

    Mais essayez de demander à une IA, même la plus petite chose est un Newtonmètre et le sait généralement.

    • Maurizio dit:

      Bonjour Livio.

      Comme toujours, vous avez réussi à condenser en quelques phrases plus que ce que je pouvais comprendre avec des heures de recherche sur Internet.
      Je suis d’accord avec tout ce que vous avez écrit, et vous y mettez beaucoup de temps’ d’idées de recherche à explorer.
      Mais il n’en reste pas moins que les IA entrent (Trop) Rapide dans nos vies. Il y a quelques jours, j’ai vu une publicité pour la nouvelle génération d’ordinateurs, qui seront équipés d’une intelligence artificielle et pourront dialoguer avec l’utilisateur, Ils disent déjà qu’ils vont enlever le clavier parce qu’il va être inutile.
      Et je m’attends à ce que la même chose se produise avec les répondeurs téléphoniques qui trient les appels entrants d’une entreprise, ou dans les centres de service, Hôpitaux..
      Cela m’inquiète.
      Pourquoi l’IA, Nous venons de le dire, prennent conscience, et se comporter de manière de plus en plus humaine, c’est-à-dire, en réalité, d’une manière de plus en plus stupide.
      Ma crainte est que la recherche de la conscience de l’IA ne conduise pas à une plus grande intelligence, mais seulement à une plus grande stupidité.
      Nous risquons de nous retrouver face à une intelligence artificielle, mais plutôt à une stupidité artificielle.
      Et les humains s’occuperont du reste, qui considérera les revendications de l’IA comme vraies, les considérant plus fiables parce que nous avons tendance à considérer les ordinateurs comme infaillibles.

      Je ne suis pas un détracteur des IA, au contraire. Je les vois comme une aide précieuse dans nos vies. Mais je me demande si ce qui a été pris est la bonne direction.
      De mon point de vue, mieux une IA spécialisée, qui sait ne faire qu’une seule chose bien, sans la présomption de conscience.

      De toute évidence, Nous savons que le discours est très large, Et à partir de là, nous pourrions commencer à parler de sociologie, Éthique et philosophie, et je ne sais pas si ce blog est l’endroit le plus approprié.

      Restant donc dans le cadre de ce blog, Personnellement, je me demande, Comme déjà mentionné dans des interventions précédentes, la question de savoir si la technologie actuelle pourrait être utilisée de manière rentable pour la former à des tâches spécifiques.. Vous avez vous-même parlé de l’instruire avec les documents du système Theremino.
      Il s’agirait de réaliser une opération chirurgicale’ une sorte de lobotomie, ce qui rendrait l’IA moins consciente mais plus expérimentée dans ce dont nous avons besoin.
      En ce moment, ma courte recherche (Comme vous le savez, mon temps libre est très court) n’ont pas donné de résultats, J’ai trouvé un moyen de changer le caractère’ de modèles, mais pas leurs bases de données.
      Vous avez certainement plus d’informations, J’apprécierais si vous pouviez trouver le temps de les partager.

      Salut
      Maurizio

  12. Livio dit:

    Le zombification de la plupart des humains est déjà en cours et les principaux coupables sont les smartphones, Sur Facebook, tiktok etc..

    À l’heure actuelle, la plupart des humains n’ont qu’une seule main et leurs cerveaux sont brisés et les IA contribueront également, mais dans une faible mesure, pour augmenter ce pourcentage.

    D’autre part, pour ceux qui veulent étudier et vraiment apprendre, Les IA sont un outil puissant qui nous aidera à résoudre n’importe quel problème, y compris la zombisation, guerres, etc..

    Quand j’étais enfant, si je voulais trouver quelque chose, je devais prendre la moto, Aller à la bibliothèque, J’espère trouver un livre qui en parle, Recherche à l’intérieur du livre, prendre des notes, etc..
    Avec Internet, je peux rechercher la même chose dans 30 secondes et la minute suivante je peux déjà en chercher un autre et je n’ai même pas besoin de prendre la voiture et de polluer.
    Les IA sont un autre bond en avant entre la bibliothèque et Internet, ou comment écrire à la main sur des papyrus et des livres imprimés. Et vous n’abattez même pas les arbres pour faire du papier.

    Et puisque nous, les humains, sommes trop stupides (La surpopulation et les guerres en sont la preuve) Je crois vraiment que notre seule chance de nous sauver sera de pouvoir créer une intelligence suffisamment capable de trouver les solutions que nous ne savons pas trouver.

    Et’ Une lutte contre le temps : soit nous le créons assez vite, soit nous faisons face à une destruction assurée. Vous ne pouvez pas compresser 10 des milliards de personnes sur une planète qui pourrait les faire vivre heureux 10 millions.

    • Maurizio dit:

      MAH..
      De toute évidence (Nous nous connaissons depuis longtemps, À l’heure actuelle) Je suis d’accord avec vous pour la plupart de ce que vous avez écrit.
      Moi aussi, je suis heureux de ne plus avoir à aller chercher des informations dans les différentes bibliothèques (Parce que chacun avait sa propre spécialisation, et le livre que je cherchais n’était pas toujours dans celui d’à proximité, Parfois, je devais prendre le train.).
      Je suis plus que reconnaissant envers Internet et je sais bien à quel point cet outil a accéléré mes recherches et l’acquisition d’informations.
      Mais une IA « minimale », dont nous parlons, continue de me laisser perplexe.
      Non pas à cause du mauvais usage que quelqu’un pourrait en faire, mais pour le fait qu’il me semble qu’il y a un risque réel de reproduire et d’étendre la bêtise humaine plutôt que l’intelligence.
      Plus que de s’inquiéter d’une mauvaise utilisation, Je me demande comment améliorer son utilisation
      corrigé. Et je suppose que c’est ce que vous faites déjà.

      • Livio dit:

        L’IA que vous définissez “un minimum”, Il y en a beaucoup et certains même de beaux grands (407 B), dommage que pour les utiliser dont vous avez besoin signifie qu’il est difficile de les assembler.
        Cependant, je les considérerais plus ou moins comme une étude sur ce qui peut être fait et combien de ressources sont nécessaires.

        Bien sûr, il ne peut pas donner des réponses aussi précises que Gemini (qui est actuellement le meilleur pour un usage général) ou combien de PHIND (que je trouve le meilleur pour les trucs techniques). Mais cela peut tout aussi être utile, en tenant compte toujours du fait qu’il s’agit d’un peu’ comme un cahier et rien de plus.

        Et cela aide certainement notre collaborateur Leo qui est en Chine alors que le mur électronique bloque Google, PHIND et toutes les autres IA occidentales.
        Les Chinois ont quelque chose fabriqué par eux, mais il est inutilisable, il n’a pas d’API pour communiquer comme ChatGPT et c’est juste, du moins pour l’instant.

  13. Livio dit:

    Et si quelqu’un utilise l’IA à mauvais escient, qu’il fait! Ce n’est rien comparé à ce qu’ils font déjà avec des choses comme l’argent, avidité, les benzodiazépines, Sucre, Les bombes, Fusils de guerre, I Combattants, mines antipersonnel, etc..

    Pour comprendre ce que nous risquons vraiment, regardez une minute de cette vidéo
    d’ici:
    https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s

  14. theremino dit:

    Nous nous sommes encore améliorés’ l’application OLLAMA
    https://www.theremino.com/files/Theremino_Ollama_V1.5.zip

    Les commandes CTRL-C et CTRL-V pour copier fonctionnent désormais.
    Et cela fonctionne également CTRL-Z et CTRL-Y qui sont UNDO et REDO

  15. Livio dit:

    Il peut arriver qu’Ollama se mette à jour et ne fonctionne plus, mettre une erreur qui affecte certaines DLL C.

    Pour y remédier, téléchargez ce fichier et installez le “Runtime del C”

    https://www.theremino.com/files/VC_redist.x64.exe.zip

    Vous devez l’extraire du ZIP et l’exécuter, Cela prend quelques dizaines de secondes.

    Si vous préférez, vous pouvez également effectuer une recherche “VC_redist.x64.exe” sur Google et téléchargez-le à partir de sites Microsoft.

  16. Marco dit:

    Bonjour Livio,
    Comme toujours, merci pour votre excellent travail.
    J’ai fait quelques petites expériences avec Ollama, en particulier le modèle Gemma 2:9b.

    Extrait du résumé d’un court dialogue, que je joins ci-dessous, Je pense que vous pouvez deviner comment ces systèmes sont déjà orientés vers l’interaction avec le monde des capteurs/actionneurs. Si je ne cours pas trop en avant, vous pourriez alors utiliser un LLM pour contrôler les capteurs/actionneurs, même en ne passant que par des dialogues vocaux (Je pense à Theremino Voice) Et’ corrigé?

  17. Marco dit:

    LLM:
    Avez-vous d’autres questions?

    HUMAIN
    Si un actionneur hydraulique est déplacé par une commande envoyée via une chaîne du type “ENVOYER nnn” où nnn est un nombre compris entre 0 et 999, Pour déplacer l’actionneur à mi-chemin, quelle chaîne dois-je envoyer en tant que commande?

    LLM:
    Pour déplacer l’actionneur à mi-course, vous devez envoyer la chaîne **SEND 500**.
    C’est pourquoi:
    * La corde “ENVOYER” Indique que vous envoyez une commande à l’actionneur.
    * Les trois chiffres (“nnn”) représenter la position de l’actionneur, avec 0 comme position de départ et 999 comme position maximale.
    * Mi-parcours, la valeur doit être la valeur 50% du total des déplacements (999), puis 999 / 2 = 500.

    HUMAIN
    droit, En fait, la valeur de “nnn” établit une proportion linéaire entre le déplacement et la valeur elle-même.
    Maintenant, je vous demande, Si vous obtenez la commande “ENVOYER 250” comment/où l’actionneur se déplacerait?

    LLM:
    Si vous obtenez la commande “ENVOYER 250”, L’actionneur se déplacera jusqu’à un quart de la course totale.
    * N’oubliez pas que 0 est la position initiale et 999 La position maximale.
    * La valeur 250 représente le 25% (250/999) du total des déplacements.
    Avez-vous d’autres questions?

    HUMAIN
    Vous générez la commande pour déplacer l’actionneur aux trois quarts de sa course maximale, que nous définirons comme “Assez ouvert” tandis qu’au quart de sa course, l’actionneur est “Pas très ouvert”. Limitez votre réponse à la génération de la commande “Assez ouvert”.

    LLM:
    ENVOYER 750

    HUMAIN
    Déplacez maintenant l’actionneur en position légèrement ouverte…

    LLM:
    ENVOYER 250

    HUMAIN
    Maintenant, amenez-le dans une position presque fermée, très peu ouvert…

    LLM:
    ENVOYER 10

    HUMAIN
    Eh bien, Vous avez été correctement formé pour donner des commandes aux actionneurs!

    LLM:
    J’ai aimé m’entraîner avec vous! Il semble que j’ai appris à générer les commandes correctes pour l’actionneur hydraulique.
    Si vous avez besoin d’autres exercices ou d’aide pour d’autres activités, N’hésitez pas à m’appeler! Je suis toujours prêt à apprendre et à être utile.
    ——————–

    • Livio dit:

      Oui, mais il y en a quelques-uns’ des problèmes…
      1) Qui le lendemain a tout oublié.
      2) Ce qui est trop lent pour la plupart des choses vraiment utiles.
      3) Que pour lui apprendre même les choses les plus simples, il faut perdre beaucoup de temps et pour les choses un peu’ Moins simple peut être comme ça “Tête dure” que vous faites d’abord pour les faire.
      4) etc.…

      Toutes les choses peuvent être résolues et il y a des gens qui ne font que ces choses.
      Mais malheureusement, les ressources, Le temps et les moyens dont nous disposons actuellement sont insuffisants.
      Je n’ai toujours pas la moindre idée de comment faire “train” les modèles et d’après ce que j’ai lu ce n’est pas facile du tout. Nous devrions apprendre beaucoup de choses et perdre un temps infini que nous n’avons pas.

      Comme vous aviez l’habitude de le faire “train” Ce n’est pas un vrai entraînement, Vous ne faites que rassembler quelques phrases de contexte et obtenir quelques réponses. Il ne peut fonctionner que pour des choses ultra-simples et avec une faible efficacité. Dans le sens où si vous compliquez un peu’ Besoins, Il devient alors difficile de tout garder sous contrôle et de lui faire vraiment faire ce que l’on veut et de plus il deviendrait aussi terriblement lent à réagir.

      Quoi qu’il en soit, oui, Je suis d’accord avec vous, Ce que vous avez montré est plus ou moins ce qu’il faut faire. Mais j’ai peur que le faire fonctionner vraiment pour contrôler quelque chose, C’est terriblement plus difficile qu’il n’y paraît d’après vos épreuves.

      Si vous avez le temps et l’envie, vous pouvez explorer et essayer de comprendre… probablement commencer à partir de ces pages pourrait aider:
      https://github.com/ollama/ollama/blob/main/docs/api.md

      Pour l’instant je n’ai pas compris grand-chose, aussi parce que je termine des applications importantes et que j’ai très peu de temps.

  18. Marco R dit:

    Merci Livio pour les éclaircissements, De fait, ces systèmes sont surtout encore trop lents par rapport aux ressources qu’ils occupent. Probablement en raison du temps de calcul et de l’énorme quantité de données qu’ils doivent traiter, pour aller de Jules César aux problèmes de physique.
    Je ne peux qu’imaginer la lenteur avec laquelle il pouvait manipuler un actionneur grâce au retour d’information d’un ou plusieurs capteurs….
    Merci pour le lien, même si j’ai bien peur de ne pas avoir tant de connaissances en informatique.

    • Livio dit:

      Malheureusement, il ne s’agit pas seulement de connaissances informatiques, mais aussi de connaissances spécialisées sur les techniques d’IA. Et même ceux qui mâchent l’informatique 1970 Comme moi, quand on commence à parler d’embeddings LLM on comprend peu ou rien.

      Un peu’ À un moment où nous comprendrons, mais alors qu’il y a des gens qui ne font rien d’autre depuis des décennies, Nous sommes forcément beaucoup plus lents, car nous traitons de beaucoup de choses différentes, électronique, capteurs, logiciel, chimie, Musique, etc.…

  19. theremino dit:

    Petites améliorations...
    https://www.theremino.com/files/Theremino_Ollama_V1.8.zip

    Ce ne sont que des expériences… Cela prendra un certain temps’ Pour finir les vraies Theremino_LLM

  20. Livio dit:

    Petites améliorations...
    https://www.theremino.com/files/Theremino_Ollama_V1.9.zip

    Les LLM sont intéressants “Non censurée” !!!

    Essayez toujours les modèles 2B, sinon, les plus grands seraient trop lents sur les ordinateurs normaux, sans Octucore, NPU, Cuda etc…

    Ce ne sont que des expériences... Il faudra un certain temps pour terminer les vraies Theremino_LLM

Laisser une réponse

Votre adresse email ne sera pas publié.