Blogues

Anote perguntas, comentários, dicas e idéias. Para apenas escrever seu nome ou um apelido como “Eu” ou “foo”, deixando outras caixas vazias.

Também Adicione o “Email” Ele serve apenas para distinguir com certeza. Se você deseja adicionar e-mail, fazê-lo com confiança, temos coisas melhores a fazer, que se reúnem com o propósito de endereços de spam.

O Blog não é tudo sobre esta página, vá para o menu “Blogues” e escolher um tema.

Se você não consegue encontrar uma seção de blog apropriada, escrever sobre esta página e iremos fornecer, encontrar a seção direita, ou criar um novo.


Inserir imagens e destacar as entradas de blog

Inserir uma imagem:

<img src ="HTTPS://www.xxxx.yyyy.zzzz.jpg" alt ="Descrição da imagem"/>

Destaque algum texto:

<span style ="cor de fundo: #FFFF99;">Realçar texto</período>

Sinta-se livre para cometer erros e experiências em pós. Se algo der errado, basta escrever um segundo post, com correções para fazer. Nós nos fará as correções e, finalmente cancelar mensagens de serviço.

  1. ROBERTO diz:

    Olá Livio, Sempre muitos elogios pelo trabalho que você faz.
    Eu baixei o fenômetro theremino como eu gostaria de tentar fazer algumas medições no nível acústico de uma bomba de calor (Unidade condensadora ao ar livre) em várias velocidades de operação. Não consigo encontrar, Se eu estiver certo, Indicações sobre esquemas/conexões de microfone ECM8000 ao mestre nos recursos baixados.
    Você poderia me dar alguma informação sobre isso??

    Obrigado e boa sorte.

    Roberto

  2. Livio diz:

    Infelizmente, Theremino GPT não funciona mais, vamos encontrar uma solução, mas enquanto isso para fazê-lo funcionar você tem que fazer sua própria chave no OpenAI como explicado no arquivo "Theremino_GPT_Help.pdf" que você pode baixar aqui:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    O que aconteceu?
    Alguém nos dias seguintes 7 Dezembro até o momento tem usado GPT4 de uma forma que “imoderado” E em apenas alguns dias, usou um milhão de tokens, enviando em massa a chave de API associada à nossa conta.

    Vamos aproveitar para explicar para quem ainda não sabe que a GPT4 é muito cara, até trinta vezes mais caro que o GPT 3.5 turbo.

    Além disso, o GPT4 é lento para responder, por isso deve ser usado com moderação e apenas se necessário.

    ———————

    Nos próximos dias, lançaremos uma nova versão do Theremino GPT, Portanto, fique atento a essas mensagens na página de notícias.

    Por agora, como escrito, se você quiser usar Theremino GPT você tem que fazer sua própria chave no OpenAI.

  3. Livio diz:

    Nós redefinimos Theremino GPT para funcionar.

    A versão 4.7 Restaure a operação sem ter que fazer sua própria chave (deixando a caixa OpenAI-KEY em branco).

    Como lembrete, nossa API-KEY só funciona com GPT-3.5-turbo.

    Vamos aproveitar para explicar para quem ainda não sabe que a GPT4 é muito cara, até trinta vezes mais caro que o GPT 3.5 turbo. Além disso, o GPT4 é lento para responder, por isso deve ser usado com moderação e apenas se necessário.

    versão para download 4.7 a partir daqui:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. Alberto R diz:

    Olá Livio e todos os desenvolvedores de Theremino. Eu realmente o parabenizo pelo que você fez.

    Eu queria compartilhar o fato de que me conectei com sucesso a um módulo IoT (O TTGO7ver1.3) uma sonda I2C muito interessante, pelo menos para mim. Esta é a sonda Bosh com sensor BME280, que é um sensor de pressão, Temperatura e umidade. O espécime que comprei (cerca de dez euros) é a marca mikroBUS.

    Obviamente modifiquei o firmware para que ele o leia corretamente e relato o programa abaixo, talvez seja útil como mais um exemplo.

    Fiz a conexão física com os pinos 21(SDA) e 22(SCL) quais são os padrões para ESP32 em comunicações I2C. Eu vi que nos outros exemplos você pode alterá-los à vontade com a biblioteca Wire, Eu não tive sucesso aqui e então os deixei assim.

    No IotHAL, os pinos de dados devem ser definidos como “Gen_in_float”.

    A fonte de alimentação é de 3,3 V.

    Obrigado novamente. Tenha um bom dia.
    Alberto

    firmware:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber diz:

    Olá Livio
    O sistema Theremino com atualizações (por exemplo, gráficos) tornou-se verdadeiramente uma ferramenta única. Parabéns.
    Uma curiosidade. Vi seu interesse em Inteligência Artificial, Eu mesmo estou tentando criar GPTs personalizados sobre tópicos de meu interesse. Na sua opinião, poderia ser possível ter um gpt personalizado criar um código para ser colado na automação theremino explicando o que eu quero fazer ?

    • Livio diz:

      Seria ótimo ter sucesso, mas ainda não aprendemos a treiná-los.
      Seria ótimo se você pudesse treinar um modelo fornecendo a ele todos os PDFs que escrevemos, temos centenas deles e isso pode facilitar muito o uso de nossos aplicativos.

      Em breve publicaremos Theremino_LLM que não dependem mais da OpenAI, mas apenas de modelos de código aberto.
      E Theremino_LLM ouço, Fala, Chamar, Toque a música, Executa comandos de automação residencial, etc…

      Mas, por enquanto, nos limitamos a usar os prontos, que podem ser encontrados nesta página:
      https://ollama.com/library

      • geofaber diz:

        Muito bom, Eu imaginei que você estava na bola.
        Na minha ignorância e com as primeiras tentativas, a primeira coisa que percebi é que a IA faz mais o que quer e não o que você quer e o treinamento não é nada claro, pelo menos o que um simples usuário pode fazer com o “crie seu próprio GPT”.

  6. geofaber diz:

    dentro do chatGPT existe a opção “explorar GPT” E você pode fazê-los “Cria”
    você pode carregá-los em sua GPT personalizada para fazer upload de arquivos de referência, e também instruções de referência.
    O feedback que você dá a eles durante a sessão é perdido quando a sessão é encerrada.
    Você também pode interagir com o mundo exterior por meio da API (Mas isso é muito complicado para mim)
    Por exemplo, estou fazendo um para comparar arquivos de vibração, Mas não há muita consistência no que ele faz, Por exemplo, o amortecimento às vezes os calcula de uma maneira, às vezes de outra, Estou tentando limitá-lo a instruções mais precisas

    • Livio diz:

      Compreendido, De qualquer forma, estamos rompendo com o OpenAI e, no futuro, só faremos coisas de código aberto com Ollama.

      A OpenAI tinha que ser “abrir” Mas então ele enganou a todos e se você quiser usar abelhas, terá que pagar por elas. Então decidimos abandoná-los.

  7. geofabe diz:

    E’ uma coisa muito boa, Vou tentar dar uma olhada em Ollama

    • Livio diz:

      Se você fizer testes, use gemma2:2b que é rápido e leve
      Lembre-se de que tudo funcionará localmente e, portanto, você deve ter muita memória RAM (mínimo 8 Giga para modelos menores, mas melhores 16, 32 ou 64 giga)
      Se você quiser usar os modelos maiores, além da memória RAM, também precisará de uma placa de vídeo recente que habilite CUDA no Ollama, caso contrário, a CPU vai para o 90 100% e responda lentamente.

      Por gemma2:2b você vai muito rápido, mesmo em máquinas pequenas e já contém uma quantidade incrível de informações, Eu pedi tudo e ele sabe tudo. Ele também fala bem em todos os idiomas e é muito semelhante ao ChatGPT 3, tudo em pouco mais de 2 giga.

    • Livio diz:

      Se você quiser fazer alguns testes, pode baixar este pequeno aplicativo que estamos usando para experimentar as possibilidades do Ollama
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • Maurizio diz:

        Olá Livio.

        Tentei iniciar o executável, Mas eu não entendo como fazer isso funcionar.
        Se eu pressionar 'mostrar informações do modelo', Eu recebo uma janela cmd.exe que diz “Olhama” não é reconhecido como um comando interno ou externo,
        um programa executável ou um arquivo em lote.’
        Eu tentei pressionar 'iniciar servidor ollama neste computador', e na janela do programa vejo 'Agora o servidor Ollama está sendo executado neste computador.

        Para acessar este servidor de outros dispositivos:
        – Deixe a janela COM aberta
        – Use o IP deste computador, da lista a seguir:

        169.254.213.179 Ethernet
        192.168.100.17 Ethernet
        169.254.78.201 Conexão de área local (LAN)
        192.168.56.1 Ethernet 3
        169.254.216.136 Conexão de área local (LAN)* 1
        169.254.139.102 Conexão de área local (LAN)* 2
        10.146.10.56 Talk2m-eCatcher
        169.254.138.238 Talk2m-eCatcher
        192.168.1.229 Wi-Fi’

        Além disso, Muitas vezes recebo uma janela de exceção que não é tratada no aplicativo’

        Tentei baixar e instalar o ollama, e a instalação foi bem-sucedida, mas não funciona igualmente.
        Agora me parece: Modelo não encontrado, Faça o download e tente novamente.

        Você pode escrever mais algumas informações?

        Obrigado
        Maurizio

        • Livio diz:

          Primeiro você tem que instalar o ollama e acho que você fez isso
          Então você tem que instalar os modelos e então funciona.

          Escolha gem2:2b ou outro pequeno na caixa de modelo.
          Em seguida, pressione “Instalar modelo” e espere que seja instalado.

          Se um modelo estiver faltando na caixa de modelo,
          prêmios “Editar lista de modelos” e, em seguida, escolha na página de modelos
          e, finalmente, adicioná-lo à lista.

          Se você ainda não consegue colocar o skype no PC
          E me chame como livio_enrico

        • geofaber diz:

          Funciona para mim.
          mas nem sempre.

          De vez em quando, parece-me também “Modelo não encontrado, faça o download e tente novamenteModelo não encontrado, Faça o download e tente novamente”
          Mas se eu for diretamente para o prompt c;Windows etc funciona

          • Livio diz:

            Você instalou o modelo menor e mais rápido?
            gemma2:2b

            Quanto tempo leva para responder pela primeira vez?
            (quando ele responde)

            Digo isso porque se você instalar modelos muito lentos ou tiver pouca memória RAM ou uma CPU lenta, então pode levar dezenas de segundos e depois expirar.

            Espero que o bud2:2B deve responder à primeira questão 7 ou 10 segundos no máximo. E para as seguintes perguntas imediatamente, isto é, alguns décimos de segundo. E as palavras devem sempre gerá-los rapidamente, Quase dez palavras por segundo.

            • geofaber diz:

              Sim, eu instalei gemma2:2b não leva décimos de segundo, mas também 7-8 segundos. Mas acho que isso está relacionado ao meu pc.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • Livio diz:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) De 16 giga l’una e aggiungerle alla DIMM che hai.
                Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.

                Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
                E in tutti i casi fai attenzione al numero di PIN, al DDR 3 ou 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.

                Em relação a treiná-los, é uma questão totalmente diferente, Por enquanto já temos o suficiente para poder fazê-los funcionar bem no aplicativo Theremino_LLM que será semelhante ao Theremino_GPT (que faz tudo, Fala, Escutar, Controle dispositivos de automação residencial, Reproduza músicas e vídeos, etc.)

  8. Livio diz:

    Espero que você ainda não estivesse usando a seção “Servidor” porque ainda não estava funcionando bem.
    A parte do servidor permite que você instale o Ollama em um único computador (possivelmente com muita memória RAM e com CUDA) e, em seguida, use-o em todos os outros PCs da rede.
    Mas se você trabalha em um único PC, você realmente não precisa dele.

    Na versão 1.2 que você baixar aqui, A seção do servidor também funciona bem:
    https://www.theremino.com/files/Theremino_Ollama_V1.2.zip

  9. Maurizio diz:

    Olá Livio.
    Instalei a versão 1.3 e seguir suas instruções agora funciona.
    Certamente um pequeno manual, até mesmo uma página pequena, poderia ajudar.
    Por exemplo,, só pela interface eu não tinha entendido a coisa do servidor.
    A velocidade de resposta no meu caso é aceitável, bem dentro dos tempos que você mencionou.

    Eu tenho algumas perguntas:
    – a IA responde usando um banco de dados offline ou faz pesquisas autônomas usando a conexão do computador host?
    – Se você não tiver acesso à Internet por padrão, você pode habilitá-lo?
    – Percebi que se eu fizer uma segunda pergunta, anexando-a à resposta da IA, Não recebo uma resposta se o texto anterior for muito longo. Se, por outro lado, o texto for curto, ou eu apago o texto e coloco apenas minha pergunta, A resposta vem. Se bem me lembro, com GPT, deixar o texto anterior deu às comunicações subsequentes um contexto de fundo. Com Ollama esse conceito se perde?
    – se eu começar tópicos 'estranhos'’ (coisas sem sentido, ou oxímoros) Respostas de IA em inglês. Como devo interpretar essa mudança de comportamento? Além disso, todos os tópicos subsequentes são abordados em inglês, E para voltar ao italiano, você tem que pedir isso de forma bastante explícita

    Isso é para começar, c

    • Livio diz:

      Faremos a documentação quando a publicarmos.

      A IA só sabe o que está nos gigabytes de que é composto o modelo que você baixou.
      Os modelos que você baixa geralmente são atualizados com dados de internet até cerca de um ano atrás. Eles não aprendem nada e não pesquisam na internet.

      Se você não tiver acesso à internet, tudo deve funcionar da mesma forma (Mas primeiro você precisa ter os modelos instalados da internet).

      Se você fizer uma nova pergunta deixando o contexto anterior, ela funcionará e levará em consideração o contexto, mas pode se tornar muito mais lenta para responder.

      Se você começar com tópicos estranhos ou fizer coisas estranhas em inglês, etc… Somente o modelo que você usa sabe o que acontece. Não tenho ideia de por que ele faz isso e provavelmente nem aqueles que o treinaram.

      Você pode tentar baixar outros modelos, se necessário (mas sempre pequeno, pois você só tem 8 giga e acho que não tem CUDA)
      Tente com qwen2.1.5b que é o último no final da lista que deixei na versão 1.3. E’ Um pouco’ selvagem, mas muito rápido e para algumas coisas está tudo bem.

      Se você quiser ver se Ollama pode acessar o CUDA da sua placa de vídeo, pressione “Inicie o servidor Ollama” e, em seguida, pesquise no texto branco sobre preto o que ele diz sobre o CUDA.

    • Livio diz:

      Melhoramos um pouco o aplicativo OLLAMA
      https://www.theremino.com/files/Theremino_Ollama_V1.4.zip

      Lembre-se, no entanto, de que este é apenas um teste inicial, mais tarde, ele se tornará parte do aplicativo Theremino_LLM, que será semelhante ao Theremino_GPT

      E Theremino_LLM vai fazer tudo, isto é, falar, ouvir, Controle dispositivos de automação residencial, Tocar música, Abra e baixe vídeos, telefone, etc..

      • Maurizio diz:

        Olá Livio.

        Esta manhã eu tenho um pouco’ de lazer, e estou fazendo alguns testes com Ollama – Gema 2.2B, e sua versão 1.4.
        Eu gostaria de copiar os diálogos aqui, mas eu descobri que você não pode destacar e copiar a partir de Theremino Ollama janela.

        Eu resumo o que notei por enquanto:
        Ao meu pedido de previsão do tempo para minha área, Ollama 'espancou o cachorro no curral', me dizendo que certamente pode me ajudar, mas precisa de uma pergunta mais detalhada, e que tenho que especificar que tipo de informação preciso (Porcentagem de precipitação pluviométrica, quantidade de chuva, Datas do intervalo a referir, etc). Eu tive que especificar várias vezes, com detalhes cada vez maiores, O que exatamente eu queria, Porque ele continuou circulando minha pergunta, em vez disso, pedindo para dar respostas. Quando eu estava convencido de que ele estava tirando sarro de mim, E que eu nunca obteria a resposta que eu estava procurando, Ele me deu previsões genéricas, mas em linha com o que foi declarado pelos sites de previsão do tempo. Em seguida, me deu a impressão de que eu tinha acessado a Internet.
        contudo, fazendo uma pergunta direta sobre como você acessa a internet, responde que não tem acesso a, nem diretamente nem por meio de programas, e que seu conhecimento é baseado no conjunto de dados no qual foi treinado.
        Fico com uma dúvida: Ele realmente aprendeu informações em tempo real da internet, ou aplicou um modelo climático adquirido, que estatisticamente prevê chuva na minha área nesta época do ano? Em ambos os casos, A resposta é um pouco’ Inquietante. Ele mentiu para mim sobre suas reais possibilidades de acesso, ou passou o conteúdo de seu conjunto de dados como informação real?
        Além disso, quando pergunto sobre lugares ou atividades na minha área, às vezes ele inventa nomes inexistentes do zero, ou ele menciona lugares muito distantes como locais, também em outras partes do mundo.
        Minha primeira impressão, que eu já tinha usado o ChatGPT, é que a IA adquiriu de forma muito acentuada uma capacidade completamente humana: o de ser indescritível, dar a impressão de saber mesmo quando não sabe, e fingem maior inteligência e conhecimento. Eu teria preferido um bom 'não sei', ou 'não incluído no meu conjunto de dados', em vez de me fazer acreditar que ele sabe, mas que fui eu quem fez a pergunta incorretamente.
        Porque desde que a pergunta seja feita por uma pessoa com preparação técnica, informado sobre as características do sistema, As respostas de IA têm o peso que merecem. Mas se o interlocutor for uma criança, ou uma pessoa idosa, Aprendizado rápido do aspecto técnico, As coisas podem tomar rumos desagradáveis.
        Devo acrescentar também que, após a discussão inicial sobre a previsão do tempo, e depois de perguntar explicitamente à IA se ela poderia ter acesso à internet, como se ela tivesse percebido que havia sido descoberta, a perguntas subsequentes sobre informações em tempo real, Na verdade, ele respondeu dizendo que não tem acesso à internet e se baseia apenas em seu conjunto de dados.
        Em seguida, para mim, essa IA continua sendo 'vigilância especial', E se eu tiver tempo, Vou verificar com os programas apropriados qualquer acesso à rede durante o diálogo.

        Que sendo dito, Estou ansioso para ver e experimentar o LLM Theremino, sendo isso, Pelo que entendi, Um controlador avançado de automação residencial, Espero que não seja influenciado pela indefinição que mencionei.

        Enquanto isso, Eu tento falar com outros modelos, avaliar as diferenças.

        Olá
        Maurizio

        • Livio diz:

          Eu diria que você não entendeu muito bem o que são IAs, Vou tentar fazer um breve resumo.

          As IAs atuais são “Modelos de linguagem grandes” (Modelo de linguagem grande) e eles são simplesmente uma grande pilha de “pesos” (Semelhante às sinapses humanas). E esses pesos foram treinados lendo bilhões de “coisas” encontrado em todos os lugares.

          O mecanismo de IA simplesmente identifica as palavras mais prováveis e as junta.
          Em outras palavras, depois de “…identificar as palavras mais prováveis e colocá-las…” A palavra mais provável que se segue é “junto”, ou também pode ser “coloque-os um após o outro” ou outras coisas semelhantes.

          Uma definição muito adequada é que as IAs são “Papagaios altamente educados”. Em outras palavras, eles apenas embaralham as palavras de uma maneira diferente e as colocam em sucessão.

          Mas então como é que parece que “Compreender” e ter quase uma consciência? Porque as dimensões de seu treinamento começam a ser tão grandes que eles adquirem um certo nível de compreensão e consciência.

          Mas é uma consciência muito limitada, pois estamos falando apenas de 2B (Dois bilhões de parâmetros) enquanto o ChatGPT e outros chegam a 100B e além.

          Em outras palavras: Nós, humanos, nada mais somos do que “Papagaios educados” só que nossas sinapses são sobre 100 milhões de vezes maior do que os pesos do maior LLM já criado.

          Quando você passa por um certo número de parâmetros, a compreensão e a consciência começam a surgir por conta própria. Mas sempre tenha em mente que com 2B ou mesmo 20B ou mesmo 200B eles são sempre apenas pequenos lampejos de compreensão, longe da consciência humana.

          Mas também deve ser dito que as IAs, Embora papagaios simples não sejam inúteis, na verdade, eles são uma coisa fantástica:

          1) Eles finalmente nos permitem entender como funcionamos.
          2) Eles nos dão uma medida de quanta complexidade é necessária para criar consciência.
          3) Eles podem ser úteis para remixar frases e sintetizar conhecimentos obtidos aqui e ali.
          4) Eles podem ser úteis para rastrear informações rapidamente sem pesquisar sites e rolar por páginas e páginas.

          No entanto, devemos usá-los pelo que são e pelo que podem fazer.
          Considere qual IA você está usando (se for de 2B, 20B ou 200B)
          Evite atribuir a ele a vontade de mentir.
          Às vezes parece vontade, mas é apenas o resultado de um mecanismo que reúne as palavras mais prováveis.

          Nós humanos também “Vamos juntar as palavras mais prováveis” mas em vez de 2 B ou 200 B estamos prestes a 20 000 000 000 B

  10. Livio diz:

    E se eu realmente tiver que ser honesto… existem pessoas ainda menos confiáveis do que um AI 2B.
    – Pessoas que acreditam que a Terra é plana.
    – Pessoas que jogam todos os nossos recursos em armas em vez de cuidados de saúde.
    – Pessoas que, se você perguntar o que é um metrô de Newton, pensam que é o metrô…
    – Etc..

    Mas tente perguntar a uma IA até a menor coisa é um medidor de Newton e geralmente sabe disso.

    • Maurizio diz:

      Olá Livio.

      Como sempre, você conseguiu condensar mais em algumas frases do que eu conseguia entender com horas de pesquisa na Internet.
      Eu concordo com tudo o que você escreveu, e você coloca um monte de tempo’ de ideias de pesquisa a serem exploradas.
      Mas o fato é que as IAs estão entrando (demais) Rápido em nossas vidas. Há alguns dias vi um anúncio da nova geração de computadores, que será equipado com inteligência artificial e poderá dialogar com o usuário, Eles já estão dizendo que vão tirar o teclado porque vai ser inútil.
      E espero que a mesma coisa aconteça com os atendentes telefônicos que classificam as chamadas recebidas de uma empresa, ou em centros de serviço, Hospitais..
      Isso me preocupa.
      Por que IA, Nós apenas dissemos isso, estão ganhando consciência, e se comportar de forma cada vez mais humana, isto é, na realidade de uma forma cada vez mais estúpida.
      Meu medo é que a busca pela consciência da IA não leve a uma maior inteligência, mas apenas para maior estupidez.
      Corremos o risco de nos depararmos não tanto com uma Inteligência Artificial, mas sim a uma estupidez artificial.
      E os humanos cuidarão do resto, que tomará as afirmações da IA como verdadeiras, considerando-os mais confiáveis porque temos a tendência de considerar os computadores à prova de erros.

      Eu não sou um detrator de IAs, pelo contrário. Eu os vejo como uma ajuda valiosa em nossas vidas. Mas estou me perguntando se o que foi tomado é a direção certa.
      Do meu ponto de vista, melhor uma IA especializada, Quem sabe fazer apenas uma coisa bem, sem a presunção de consciência.

      obviamente, Sabemos que o discurso é muito amplo, E a partir daqui poderíamos começar a falar de sociologia, Ética e filosofia, e não sei se este blog é o lugar mais adequado.

      Permanecendo, portanto, dentro do escopo deste blog, Pessoalmente, eu me pergunto, como já foi referido em intervenções anteriores, se a tecnologia atual pode ser usada de forma lucrativa para treiná-la em tarefas específicas. Você mesmo falou em instruí-lo com os documentos do sistema Theremino.
      Seria uma questão de realizar uma operação cirúrgica’ uma espécie de lobotomia, o que tornaria a IA menos consciente, mas mais experiente no que precisamos.
      No momento, minha curta pesquisa (Como você sabe, meu tempo livre é muito pouco) não produziram resultados, Eu encontrei uma maneira de mudar o personagem’ de modelos, mas não seus bancos de dados.
      Você certamente tem mais informações, Eu agradeceria se você pudesse encontrar tempo para compartilhá-los.

      Olá
      Maurizio

  11. Livio diz:

    A zumbifiação da maioria dos humanos já está em andamento e os principais culpados são os smartphones, Linkedin, tiktok etc..

    Até agora, a maioria dos humanos tem apenas uma mão e seus cérebros estão quebrados e as IAs também contribuirão, mas em pequena medida, para aumentar essa porcentagem.

    Por outro lado, para quem quer estudar e aprender de verdade, As IAs são uma ferramenta poderosa que nos ajudará a resolver qualquer problema, incluindo zumbido, guerras etc..

    Quando eu era criança, se eu quisesse encontrar algo, eu tinha que levar a motocicleta, Ir para a biblioteca, espero encontrar um livro que fale sobre isso, Pesquise dentro do livro, tome notas etc.
    Com a internet eu posso procurar a mesma coisa em 30 segundos e no minuto seguinte já posso procurar outro e nem preciso pegar o carro e poluir.
    As IAs são outro salto entre a biblioteca e a internet, ou como escrever à mão em papiros e livros impressos. E você nem corta árvores para fazer papel.

    E já que nós, humanos, somos muito estúpidos (Isso é demonstrado pela superpopulação e pelas guerras) Acredito realmente que nossa única chance de nos salvarmos será sermos capazes de criar uma inteligência capaz o suficiente para encontrar as soluções que não sabemos encontrar.

    E’ Uma luta contra o tempo: ou o criamos rápido o suficiente ou enfrentamos a destruição garantida. Você não pode compactar 10 bilhões de pessoas em um planeta que poderia fazê-las viver felizes 10 fricção da roda.

    • Maurizio diz:

      Mah..
      obviamente (Nós nos conhecemos há muito tempo, agora) Eu concordo com você para a maior parte do que você escreveu.
      Eu também estou feliz por não ter mais que procurar informações nas várias bibliotecas (porque cada um tinha sua própria especialização, e o livro que eu procurava nem sempre estava no próximo, Às vezes eu tinha que pegar o trem.).
      Sou mais do que grato à Internet e bem ciente do quanto essa ferramenta acelerou minha pesquisa e aquisição de informações.
      Mas IA 'mínima', de que estamos falando, continua a me deixar perplexo.
      Não por causa do uso errado que alguém possa fazer dele, mas pelo fato de que me parece que existe um risco real de replicar e expandir a estupidez humana em vez da inteligência.
      Mais do que se preocupar com o uso errado, Estou me perguntando como melhorar seu uso
      correto. E eu acho que é isso que você já está fazendo.

      • Livio diz:

        A IA que você define “mínimo”, são muitos e alguns até lindos grandes (407 B), pena que para usá-los você precisa significa que é difícil de montar.
        No entanto, eu os consideraria mais ou menos um estudo sobre o que pode ser feito e quantos recursos são necessários.

        Claro, ele não pode dar respostas tão precisas quanto Gêmeos (que atualmente é o melhor para uso geral) ou quanto PHIND (que eu acho o melhor para coisas técnicas). Mas pode ser igualmente útil sempre levando em consideração que é um pouco’ como um caderno e nada mais.

        E certamente ajuda nosso colaborador Leo, que está na China, pois a parede eletrônica bloqueia o Google, PHIND e todas as outras IAs ocidentais.
        Os chineses têm algo feito por eles, mas é inutilizável, não tem APIs para se comunicar como o ChatGPT e é apenas, pelo menos por enquanto.

  12. Livio diz:

    E se alguém fizer mau uso da IA, que ele faz! Não é nada comparado ao que eles já fazem com coisas como dinheiro, ganância, benzodiazepínicos, Açúcar, As bombas, Rifles de guerra, I Lutadores, minas antipessoal etc..

    Para entender o que realmente estamos arriscando, assista a um minuto deste vídeo
    daqui:
    https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s

  13. theremino diz:

    Melhoramos um pouco mais’ o aplicativo OLLAMA
    https://www.theremino.com/files/Theremino_Ollama_V1.5.zip

    Os comandos CTRL-C e CTRL-V para copiar agora funcionam.
    E também funciona CTRL-Z e CTRL-Y, que são UNDO e REDO

  14. Livio diz:

    Pode acontecer que Ollama atualize e não funcione mais, colocando um erro que afeta algumas DLLs C.

    Para corrigi-lo, baixe este arquivo e instale o “Runtime del C”

    https://www.theremino.com/files/VC_redist.x64.exe.zip

    Você tem que extraí-lo do ZIP e executá-lo, Demora algumas dezenas de segundos.

    Se preferir, você também pode pesquisar “VC_redist.x64.exe” no Google e baixe-o dos sites da Microsoft.

  15. Marco diz:

    Olá Livio,
    Como sempre, obrigado pelo seu excelente trabalho.
    Fiz alguns pequenos experimentos com Ollama, em particular o modelo Gemma 2:9b.

    Do resumo de um breve diálogo, que anexo abaixo, Acho que você pode adivinhar como esses sistemas já estão orientados para a interação com o mundo dos sensores/atuadores. Se eu não correr muito para a frente, você poderia usar um LLM para controlar sensores / atuadores, mesmo passando apenas por diálogos vocais (Estou pensando em Theremino Voice) E’ correto?

  16. Marco diz:

    LLM:
    Você tem alguma outra pergunta?

    HUMANO
    Se um atuador hidráulico for movido por um comando enviado por meio de uma string do tipo “ENVIAR nnn” onde nnn é um número entre 0 e 999, Para mover o atuador até a metade, qual string devo enviar como comando?

    LLM:
    Para mover o atuador até a metade, você deve enviar a string **ENVIAR 500**.
    É por isso que:
    * A string “ENVIAR” indica que você está enviando um comando para o atuador.
    * Os três números (“nnn”) representam a posição do atuador, com 0 como posição inicial e 999 como posição máxima.
    * Meio, O valor deve ser o 50% do total de viagens (999), em seguida 999 / 2 = 500.

    HUMANO
    direito, Na verdade, o valor de “nnn” estabelece uma proporção linear entre o deslocamento e o próprio valor.
    Agora eu te pergunto, Se você receber o comando “ENVIAR 250” como/para onde o atuador se moveria?

    LLM:
    Se você receber o comando “ENVIAR 250”, O atuador se moverá para um quarto do curso total.
    * Lembre-se disso 0 é a posição inicial e 999 A posição máxima.
    * O valor que 250 representa o 25% (250/999) do total de viagens.
    Você tem alguma outra pergunta?

    HUMANO
    Você gera o comando para mover o atuador para três quartos de seu curso máximo, que definiremos como “Bastante aberto” enquanto a um quarto de seu curso o atuador é “Não muito aberto”. Limite sua resposta à geração do comando “Bastante aberto”.

    LLM:
    ENVIAR 750

    HUMANO
    Agora mova o atuador para a posição ligeiramente aberta…

    LLM:
    ENVIAR 250

    HUMANO
    Agora traga-o para uma posição quase fechada, apenas muito pouco aberto…

    LLM:
    ENVIAR 10

    HUMANO
    Bem, Você foi devidamente treinado para dar comandos aos atuadores!

    LLM:
    Eu gostei de treinar com você! Parece que aprendi a gerar os comandos corretos para o atuador hidráulico.
    Se você precisar de outros exercícios ou ajuda com outras atividades, Não hesite em me ligar! Estou sempre pronto para aprender e ser útil.
    ——————–

    • Livio diz:

      Sim, mas existem alguns’ de problemas…
      1) Que no dia seguinte esqueceu tudo.
      2) O que é muito lento para a maioria das coisas realmente úteis.
      3) Que para ensiná-lo até as coisas mais simples você tem que perder muito tempo e para as coisas um pouco’ Menos simples pode ser assim “Cabeça dura” que você faz primeiro para fazê-los.
      4) etc…

      Todas as coisas que podem ser resolvidas e há pessoas que estão apenas fazendo essas coisas.
      Mas, infelizmente, os recursos, O tempo e os meios de que dispomos actualmente são insuficientes.
      Ainda não tenho a menor ideia de como fazer isso “Trem” os modelos e pelo que li não é nada fácil. Teríamos que aprender muitas coisas e desperdiçar uma quantidade infinita de tempo que não temos.

      Do jeito que você costumava fazer “Trem” Não é um treinamento real, Você está apenas juntando algumas frases de contexto e obtendo algumas respostas. Ele só pode funcionar para coisas ultra-simples e com baixa eficiência. No sentido de que se você complicar um pouco’ Necessidades, então fica difícil manter tudo sob controle e realmente fazê-lo fazer o que você quer e, além disso, ele também se tornaria terrivelmente lento para responder.

      Enfim, sim, Eu concordo com você, O que você mostrou é mais ou menos o que precisa ser feito. Mas temo que fazer isso realmente funcione para controlar algo, É terrivelmente mais difícil do que parece em suas provações.

      Se você tiver tempo e desejo, poderá explorar e tentar entender… provavelmente começar a partir dessas páginas pode ajudar:
      https://github.com/ollama/ollama/blob/main/docs/api.md

      Por enquanto eu não entendi muito, também porque estou terminando algumas aplicações importantes e tenho muito pouco tempo.

  17. Marco R diz:

    Obrigado Livio pelos esclarecimentos, Com efeito, estes sistemas são, sobretudo, ainda demasiado lentos em relação aos recursos que ocupam. Provavelmente devido ao tempo de cálculo e à enorme quantidade de dados que eles precisam processar, para variar de Júlio César a problemas de física.
    Só posso imaginar a lentidão com que ele poderia lidar com um atuador por meio do feedback de um ou mais sensores….
    Obrigado pelo link, mesmo que eu tenha medo, não tenho tanto conhecimento de informática.

    • Livio diz:

      Infelizmente, não se trata apenas de conhecimento de informática, mas de conhecimento especializado sobre técnicas de IA. E mesmo aqueles que mastigam ciência da computação 1970 Como eu, quando começamos a falar sobre incorporações de LLM, entendemos pouco ou nada.

      Um pouco’ Em um momento que entenderemos, Mas enquanto há pessoas que não fazem mais nada há décadas, Somos necessariamente muito mais lentos, como lidamos com muitas coisas diferentes, eletrônica, sensores, software de, química, música etc…

  18. theremino diz:

    Piccoli miglioramenti…
    https://www.theremino.com/files/Theremino_Ollama_V1.8.zip

    Sono solo esperimentici vorrà un poper finire il vero Theremino_LLM

  19. Livio diz:

    Piccoli miglioramenti…
    https://www.theremino.com/files/Theremino_Ollama_V1.9.zip

    Interessanti gli LLMUncensored” !!!

    Provate sempre i modelli 2B, altrimenti quelli più grandi sarebbero troppo lenti sui computer normali, senza Octucore, NPU, Cuda ecc

    Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM

Deixar uma resposta

Seu endereço de e-mail não será publicado.