Escriba aquí preguntas, Comentarios, nuevas ideas y recomendaciones. Escribir sólo el nombre o un apodo como “Me” o “Pippo”, dejando los otros cuadros en blanco.
Añadir también la “Correo electrónico” sólo sirve para distinguir con certeza. Si desea agregar el correo lo hago con confianza, Tenemos mejores cosas que hacer, Recopilamos direcciones para spam.
El Blog no es todo en esta página, vaya al menú “Blog” y elegir un tema.
Si no encuentras la sección adecuada del blog, entrar en esta página y vamos a, encontrar la sección derecha, o crear uno nuevo.
Insertar imágenes y resaltar entradas en el blog
Insertar una imagen:
<img src ="HTTPS://www.xxxx.yyyy.ZZZZ.jpg" Alt ="Descripción de la imagen"/>
Destacar una porción de texto:
<span estilo ="color de fondo: #ffff99;">TEXTO PARA DESTACADO</span>
No dude en hacer experimentos y errores en los mensajes. Si algo sale mal, sólo tienes que escribir un segundo post, con las correcciones que. Haremos las correcciones, y por último tendremos que anular mensajes de servicio.
Hola Livio, Siempre muchos elogios por el trabajo que haces.
Descargué el fonómetro theremino ya que me gustaría intentar hacer algunas mediciones a nivel acústico de una bomba de calor (Unidad condensadora unidad exterior) a varias velocidades de funcionamiento. No puedo encontrar, Si estoy en lo cierto, Indicaciones sobre esquemas/conexiones de micrófonos ECM8000 al maestro en los recursos descargados.
¿Podría darme alguna información al respecto??
Gracias y buen trabajo.
Roberto
El micrófono ECM8000 debe estar conectado a su tarjeta de sonido especial U-PHORIA UM2 fabricada por Behringer
https://www.behringer.com/product.html?modelCode=P0118
https://www.behringer.com/product.html?modelCode=P0DZ3
En comparación con productos de calidad similar, cuestan muy poco.
Eventualmente, también podría alimentar el micrófono con otras tarjetas de sonido de las mismas características, pero siempre adecuado para alimentar micrófonos de condensador.
Si tienes alguna otra duda, pregúntale a Marco quién ha fabricado muchas de estas unidades de control. Quizás también podría darte componentes de segunda mano y seguro que te puede dar buenos consejos y también la última versión de los programas de Metro y Elaboración que aún no hemos publicado.
https://www.theremino.com/contacts/about-us#marco
Lea también los archivos PDF de la documentación.
Hola
Livio
Muchas gracias Livio, Me pondré en contacto con Marco según su sugerencia.
Buena noches
Desafortunadamente, Theremino GPT ya no funciona, encontraremos una solución, pero mientras tanto, para que funcione, debe crear su propia clave en OpenAI como se explica en el archivo "Theremino_GPT_Help.pdf" que puede descargar desde aquí:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
¿Qué pasó?
Alguien en los días transcurridos desde entonces 7 diciembre hasta la fecha ha utilizado GPT4 de una manera que “inmoderado” Y en solo unos días, usó un millón de tokens, mediante el envío masivo de la clave API asociada a nuestra cuenta.
Aprovechemos esta oportunidad para explicar a los que aún no lo saben que GPT4 es muy caro, hasta treinta veces más caro que GPT 3.5 turbo.
Además, GPT4 tarda en responder, por lo que debe usarse con moderación y solo si es necesario.
———————
En los próximos días, lanzaremos una nueva versión de Theremino GPT, Así que esté atento a estos mensajes en la página de noticias.
Por el momento, como se ha escrito, si quieres usar Theremino GPT tienes que crear tu propia clave en OpenAI.
Hemos restablecido Theremino GPT para que funcione.
La versión 4.7 Restaure la operación sin tener que crear su propia clave (dejando en blanco el cuadro OpenAI-KEY).
Como recordatorio, nuestra API-KEY solo funciona con GPT-3.5-turbo.
Aprovechemos esta oportunidad para explicar a los que aún no lo saben que GPT4 es muy caro, hasta treinta veces más caro que GPT 3.5 turbo. Además, GPT4 tarda en responder, por lo que debe usarse con moderación y solo si es necesario.
Descargar 4.7 Desde aquí:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
Hola Livio y todos los desarrolladores de Theremino. Te felicito mucho por lo que has hecho.
Quería compartir el hecho de que me conecté con éxito a un módulo de IoT (El TTGO7ver1.3) una sonda I2C muy interesante, por lo menos para mí. Se trata de la sonda Bosh con sensor BME280, que es un sensor de presión, Temperatura y humedad. El espécimen que compré (unos diez euros) tiene la marca mikroBUS.
Obviamente modifiqué el firmware para que lo lea correctamente y os reporto el programa a continuación, Tal vez sea útil como un ejemplo más.
Hice la conexión física con los pines 21(SDA) y 22(SCL) cuáles son los estándar para ESP32 en comunicaciones I2C. Vi que en los otros ejemplos puedes cambiarlos a voluntad con la biblioteca Wire, No lo logré aquí y por eso los dejé así.
En IotHAL, los pines de datos deben establecerse en “Gen_in_float”.
La fuente de alimentación es de 3,3 V.
¡Gracias de nuevo. Que tengas un buen día.
Alberto
firmware:
// ----------------------------------- Do not remove ---------
#include "IotModule\IotModule.h"
cIotModule IotModule;
// -----------------------------------------------------------
#include “Wire.h”
#include “SPI.h”
#include “Adafruit_Sensor.h”
#include “Adafruit_BME280.h”
#define SEALEVELPRESSURE_HPA (1013.25)
Adafruit_BME280 bme; // I2C
float pressure, mbar_pressure;
// ========================================================================
// SETUP
// ========================================================================
void setup()
{
Serial.begin(9600);
// ------------------------------------ Do not remove ---------
IotModule.initialize();
// ------------------------------------------------------------
unsigned status;
// default settings
// collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
status = bme.begin(0x76);
if (!status)
{
Serial.println("indirizzo sbagliato");
}
}
// ========================================================================
// LOOP
// ========================================================================
void loop()
{
Serial.print(bme.readTemperature());
Serial.print("\n");
IotModule.genericWriteFloat(36, bme.readTemperature());
pressure = bme.readPressure();
mbar_pressure = pressure/100.0 ;
Serial.print(mbar_pressure);
Serial.print("\n");
IotModule.genericWriteFloat(39, mbar_pressure);
Serial.print(bme.readHumidity());
Serial.print("\n");
IotModule.genericWriteFloat(35, bme.readHumidity());
delay(100);
}
Hola Livio
El sistema Theremino con actualizaciones (p. ej. Gráficos) se ha convertido realmente en una herramienta única. Felicidades.
Una curiosidad. Vi tu interés por la Inteligencia Artificial, Yo mismo estoy tratando de crear GPT personalizados sobre temas que me interesan. En su opinión, podría ser posible que un gpt personalizado cree un código para pegarlo en la automatización de theremino explicando lo que quiero hacer ?
Sería una gran cosa tener éxito, pero aún no hemos aprendido a entrenarlos.
Sería genial si pudieras entrenar un modelo dándole todos los PDF que escribimos, Tenemos cientos de ellos y entonces podría facilitar enormemente el uso de nuestras aplicaciones.
Próximamente publicaremos Theremino_LLM que ya no depende de OpenAI sino solo de modelos de código abierto.
Y Theremino_LLM escuchar, Habla, Llamar, Reproducir la música, Ejecuta comandos de domótica, etc.…
Pero por ahora nos limitamos a usar los ya hechos, que se puede encontrar en esta página:
https://ollama.com/library
Muy bien, Imaginé que estabas en la pelota.
En mi ignorancia y con los primeros intentos lo primero que me di cuenta es que la IA hace más lo que quiere y no lo que tú quieres y el entrenamiento no está nada claro, al menos lo que un simple usuario puede hacer con el “crea tu propio GPT”.
Pero “crea tu propio GPT” Dónde lo estás haciendo?
En alguna página de OpenAI o en otro lugar?
dentro de chatGPT está la opción “Explora GPT” Y tú puedes hacerlos “Crea”
puede cargarlos en su GPT personalizado para cargar archivos de referencia, y también instrucciones de referencia.
Los comentarios que les proporciones durante la sesión se perderán cuando se cierra la sesión.
También puede interactuar con el mundo exterior a través de la API (Pero esto es demasiado complicado para mí)
Por ejemplo, estoy haciendo uno para comparar archivos de vibración, Pero no hay mucha consistencia en lo que hace, Por ejemplo, la amortiguación a veces los calcula de una manera, a veces de otra, Estoy tratando de limitarlo a instrucciones más precisas
Entendido, De todos modos, nos estamos separando de OpenAI y en el futuro solo hacemos cosas de código abierto con Ollama.
OpenAI tenía que ser “Abierto” Pero luego engañó a todo el mundo y si quieres usar abejas tienes que pagar por ellas. Así que decidimos abandonarlos.
Y’ Algo muy bueno, Intentaré echarle un vistazo a Ollama
Si haces pruebas, usa gemma2:2b que es rápido y ligero
Ten en cuenta que todo funcionará localmente y por lo tanto debes tener mucha ram (mínimo 8 Giga para modelos más pequeños pero mejores 16, 32 o 64 giga)
Si desea utilizar los modelos más grandes, además de la memoria ram, también necesitaría una tarjeta de video reciente que habilite CUDA en Ollama, de lo contrario, la CPU va a la 90 100% y responden lentamente.
Por gemma2:2B Vas bastante rápido incluso en máquinas pequeñas y ya contiene una cantidad increíble de información, Le he pedido todo y él lo sabe todo. También habla bien en todos los idiomas y es muy similar a ChatGPT 3, todo en poco más de 2 giga.
Si queréis hacer algunas pruebas podéis descargaros esta pequeña aplicación que estamos utilizando para probar las posibilidades de Ollama
https://www.theremino.com/files/Theremino_Ollama_V1.1.zip
Hola Livio.
Intenté iniciar el ejecutable, Pero no entiendo cómo hacer que funcione.
Si presiono 'mostrar información del modelo', Aparece una ventana cmd.exe que dice “Ollama” no se reconoce como un comando interno o externo,
un programa ejecutable o un archivo por lotes.’
Intenté presionar 'iniciar el servidor ollama en esta computadora', y en la ventana del programa veo 'Ahora el servidor Ollama se está ejecutando en esta computadora.
Para acceder a este servidor desde otros dispositivos:
– Deje abierta la ventana COM
– Usar la IP de este equipo, de la siguiente lista:
169.254.213.179 Ethernet
192.168.100.17 Ethernet
169.254.78.201 Conexión de área local (LAN)
192.168.56.1 Ethernet 3
169.254.216.136 Conexión de área local (LAN)* 1
169.254.139.102 Conexión de área local (LAN)* 2
10.146.10.56 Talk2m-eCatcher
169.254.138.238 Talk2m-eCatcher
192.168.1.229 Wi-Fi’
Además, A menudo obtengo una ventana de excepción que no se maneja en la aplicación’
Intenté descargar e instalar ollama, y la instalación fue exitosa, Pero no funciona igual.
Ahora me parece a mí: Modelo no encontrado, Por favor, descárguelo y vuelva a intentarlo.
Puedes escribir un poco más de información?
Gracias
Maurizio
Primero tienes que instalar ollama y creo que lo has hecho
Luego tienes que instalar las plantillas y luego funciona.
Elige gem2:2b u otro pequeño en el cuadro de la plantilla.
A continuación, pulse “Modelo de instalación” y esperar a que se instale.
Si falta una plantilla en el cuadro de plantilla,
Premios “Editar lista de modelos” y luego elija en la página Plantillas
y finalmente agregarlo a la lista.
Si aún no puedes poner Skype en la PC
Y llámame como livio_enrico
A mí me funciona.
Pero no siempre.
De vez en cuando se me aparece a mí también “Modelo no encontrado, por favor, descárguelo y vuelva a intentarModelo no encontrado, Por favor, descárguelo y vuelva a intentarlo”
Pero si voy directamente al símbolo del sistema c;Windows, etc. funciona
Has instalado el modelo más pequeño y rápido?
gemma2:2b
¿Cuánto tiempo se tarda en responder la primera vez??
(cuando él responde)
Digo esto porque si instalas modelos muy lentos o tienes poca ram o tienes una cpu lenta, luego podría tardar decenas de segundos y luego se agotaría el tiempo de espera.
Esperemos que el bud2:2b debe responder a la primera cuestión prejudicial de la siguiente manera: 7 o 10 segundos a lo sumo. Y a las siguientes preguntas de inmediato, es decir, unas décimas de segundo. Y las palabras siempre deben generarlos rápido, Casi diez palabras por segundo.
Sí, instalé gemma2:2b no tarda décimas de segundo, pero también 7-8 segundos. Pero creo que esto está relacionado con mi pc.
Ma c’è modo di addestrarlo caricando informazioni o documenti ?
carateristiche del mio pc
Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
RAM installata 8,00 GB (6,94 GB utilizzabile)
Ci mette 7 8 secondi la prima volta.
Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?
La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) De 16 giga l’una e aggiungerle alla DIMM che hai.
Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.
Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
E in tutti i casi fai attenzione al numero di PIN, al DDR 3 o 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.
En cuanto a su formación, es otra cosa, Por ahora ya tenemos suficientes para poder hacerlos funcionar bien en la Theremino_LLM app que será similar a Theremino_GPT (que lo hace todo, Habla, Escuchar, Controlar los dispositivos domóticos, Reproduce música y videos, etc.)
Espero que aún no hayas estado usando la sección “Servidor” porque todavía no funcionaba bien.
La parte del servidor le permite instalar Ollama en una sola computadora (posiblemente con mucha ram y con CUDA) y luego usarlo desde todas las demás PC de la red.
Pero si trabajas en una sola PC, realmente no lo necesitas.
En la versión 1.2 que descargar desde aquí, La sección de servidores también funciona bien:
https://www.theremino.com/files/Theremino_Ollama_V1.2.zip
Todavía había una falla, aquí está la versión 1.3
https://www.theremino.com/files/Theremino_Ollama_V1.3.zip
Hola Livio.
Instalé la versión 1.3 Y seguir tus instrucciones ahora funciona.
Ciertamente, un pequeño manual, incluso una página pequeña, podría ayudar.
Por ejemplo,, solo desde la interfaz no había entendido lo del servidor.
La velocidad de respuesta en mi caso es aceptable, bueno, dentro de los tiempos que mencionaste.
Tengo algunas preguntas:
– la IA responde utilizando una base de datos fuera de línea o realiza búsquedas autónomas utilizando la conexión de la computadora host?
– Si no tienes acceso a Internet de forma predeterminada, Puedes habilitarlo?
– Me di cuenta de que si hago una segunda pregunta añadiéndola a la respuesta de la IA, No recibo una respuesta si el texto anterior es muy largo. Si, por el contrario, el texto es corto, o borro el texto y pongo solo mi pregunta, ¡Viene la respuesta. Si no recuerdo mal, con GPT, dejar el texto anterior le dio a las comunicaciones posteriores un contexto de fondo. Con Ollama este concepto se pierde?
– si empiezo con temas 'extraños'’ (Cosas sin sentido, u oxímoron) Respuestas de IA en inglés. ¿Cómo debo interpretar este cambio de comportamiento?? Además, todos los temas posteriores se abordan en inglés, Y para volver al italiano hay que pedirlo de forma bastante explícita
Esto es para empezar con, C
Haremos la documentación cuando la publiquemos.
La IA solo sabe qué hay en los gigabytes de los que se compone el modelo que descargó.
Los modelos que descarga generalmente se actualizan con datos de Internet hasta hace aproximadamente un año. No aprenden nada y no buscan en internet.
Si no tienes acceso a Internet, todo debería funcionar igual (Pero primero debe tener las plantillas instaladas desde Internet).
Si haces una nueva pregunta saliendo del contexto anterior, funciona y tiene en cuenta el contexto, pero puede llegar a ser mucho más lento de responder.
Si comienzas con temas raros o haces cosas raras en inglés, etc… Solo el modelo que usas sabe lo que sucede. No tengo idea de por qué hace esto y probablemente tampoco lo tienen quienes lo entrenaron.
Puede intentar descargar otras plantillas si es necesario (pero siempre pequeño ya que solo tienes 8 giga y creo que no CUDA)
Pruebe con qwen2.1.5b que es el último al final de la lista que dejé en la versión 1.3. Y’ Un poco’ salvaje pero muy rápido y para algunas cosas está bien.
Si quieres ver si Ollama puede acceder a la tarjeta de video CUDA, presiona “Iniciar el servidor Ollama” y luego busque en el texto en blanco sobre negro lo que dice sobre CUDA.
Hemos mejorado un poco la aplicación OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.4.zip
Sin embargo, recuerde que esta es solo una prueba inicial, Más adelante pasará a formar parte de la aplicación Theremino_LLM que será similar a Theremino_GPT
Y Theremino_LLM lo hará todo, es decir, hablar, escuchar, Controlar los dispositivos domóticos, Reproducir música, Abrir y descargar vídeos, teléfono, etc..
Hola Livio.
Esta mañana tengo un poco de’ de ocio, y estoy haciendo algunas pruebas con Ollama – Gema 2.2B, y su versión 1.4.
Me hubiera gustado copiar los diálogos aquí, pero descubrí que no se puede resaltar y copiar desde la ventana de Theremino Ollama.
Resumo lo que he notado por ahora:
A mi solicitud de un pronóstico del tiempo para mi área, Ollama ha 'golpeado al perro en el corral', diciéndome que sin duda puede ayudarme, pero necesita una pregunta más detallada, y que tengo que especificar qué tipo de información necesito (Porcentaje de precipitaciones, Cantidad de lluvia, Fechas del intervalo al que se va a hacer referencia, etc.). Tuve que especificar varias veces, con cada vez más detalles, ¿Qué quería exactamente?, Porque él seguía dando vueltas a mi pregunta, pidiéndole en cambio que dé respuestas. Cuando estaba convencida de que se estaba burlando de mí, Y que nunca obtendría la respuesta que estaba buscando, Me dio predicciones genéricas, pero en línea con lo declarado por los sitios de pronóstico del tiempo. Entonces, me dio la impresión de que había accedido a Internet.
Sin embargo, Al hacer una pregunta directa sobre cómo accede a Internet, responde que no tiene acceso a, Ni directamente ni a través de programas, y que su conocimiento se basa en el conjunto de datos con el que se entrenó.
Me quedo con una duda: Realmente aprendió información en tiempo real de Internet, o aplicó un modelo meteorológico adquirido, lo que predice estadísticamente la lluvia en mi zona en esta época del año? En ambos casos, La respuesta es un poco’ inquietante. Me mintió sobre sus posibilidades reales de acceso, o hacer pasar el contenido de su conjunto de datos como información real?
Además, cuando pregunto sobre lugares o actividades en mi área, A veces inventa nombres inexistentes desde cero, o menciona lugares muy lejanos como locales, también en otras partes del mundo.
Mi primera impresión, que ya había tenido usando ChatGPT, es que la IA ha adquirido de una manera muy acentuada una capacidad completamente humana: la de ser escurridizo, para dar la impresión de saber incluso cuando no sabe, y fingir mayor inteligencia y conocimiento. Hubiera preferido un bonito 'no sé', o 'no incluido en mi conjunto de datos', en lugar de hacerme creer que él sabe, pero que soy yo quien hizo la pregunta incorrectamente.
Porque siempre y cuando la pregunta la haga una persona con preparación técnica, Informados sobre las características del sistema, Las respuestas de la IA tienen el peso que merecen. Pero si el interlocutor es un niño, o una persona mayor, Aprendizaje rápido del aspecto técnico, Las cosas podrían tomar giros desagradables.
También debo agregar que después de la discusión inicial sobre el pronóstico del tiempo, y después de preguntar explícitamente a la IA si podía tener acceso a Internet, como si se hubiera dado cuenta de que la habían descubierto, a preguntas posteriores sobre información en tiempo real, De hecho, respondió diciendo que no tiene acceso a Internet y que solo se basa en su conjunto de datos.
Entonces, para mí, esta IA sigue siendo una "vigilancia especial", Y si tengo tiempo, Verificaré con los programas apropiados cualquier acceso a la red durante el diálogo.
Dicho esto, Espero con ansias ver y probar el Theremino LLM, Siendo esto, Hasta donde tengo entendido, Un controlador domótico avanzado, Espero que no esté influenciado por lo elusivo que mencioné.
Mientras tanto, Intento hablar con otras modelos, para evaluar las diferencias.
Hola
Maurizio
Yo diría que no has entendido muy bien qué son las IA, Trataré de hacer un breve resumen.
Las IA actuales son: “Modelos de lenguaje de gran tamaño” (Modelo de lenguaje grande) y son simplemente una gran pila de “pesos” (similar a las sinapsis humanas). Y estos pesos han sido entrenados mediante la lectura de miles de millones de “cosas” Se encuentra en todas partes.
El motor de IA simplemente identifica las palabras más probables y las junta.
En otras palabras, después de “…Identifica las palabras más probables y ponlas…” La palabra más probable que sigue es “juntos”, o también podría ser “Ponlos uno tras otro” u otras cosas similares.
Una definición muy acertada es que las IA son “Loros altamente educados”. En otras palabras, simplemente barajan las palabras de una manera diferente y las colocan en sucesión.
Pero entonces, ¿cómo es que parece que “Entender” y tener casi una conciencia? Porque las dimensiones de su formación comienzan a ser tan grandes que adquieren un cierto nivel de comprensión y conciencia.
Pero es una consciencia muy limitada ya que estamos hablando solo de 2B (Dos mil millones de parámetros) mientras que ChatGPT y otros incluso llegan a 100B y más.
En otras palabras: Los seres humanos no somos más que “Loros educados” solo que nuestras sinapsis están a punto de 100 millones de veces mayor que los pesos del LLM más grande jamás creado.
Cuando pasas un cierto número de parámetros, la comprensión y la conciencia comienzan a surgir por sí solas. Pero siempre hay que tener en cuenta que con 2B o incluso 20B o incluso 200B siempre son sólo pequeños destellos de comprensión, lejos de la conciencia humana.
Pero también hay que decir que las IA, Aunque los loros simples no son inútiles, De hecho, son una cosa fantástica:
1) Finalmente nos permiten comprender cómo funcionamos nosotros mismos.
2) Nos dan una medida de cuánta complejidad se necesita para crear conciencia.
3) Pueden ser útiles para remezclar oraciones y sintetizar conocimientos tomados aquí y allá.
4) Pueden ser útiles para rastrear rápidamente la información sin tener que buscar en los sitios y desplazarse por páginas y páginas.
Sin embargo, debemos usarlos por lo que son y por lo que pueden hacer.
Considere qué IA está utilizando (si es de 2B, 20B o 200B)
Evite atribuirle la disposición a mentir.
A veces parece voluntad, pero es solo el resultado de un mecanismo que reúne las palabras más probables.
Nosotros, los humanos, también “Juntemos las palabras más probables” pero en lugar de 2 B o 200 B de los que se trata 20 000 000 000 B
E se devo proprio dirla tutta… ci sono persone anche meno affidabili di una IA 2B.
– Persone che credono la terra piatta.
– Persone che buttano tutte le nostre risorse in armi invece che nella sanità.
– Persone che se gli chiedi cosa è un Newton Metro pensano che sia la metropolitana…
– Ecc..
Ma prova a chiedere a una AI anche la più piccola cosa è un Newton Metro e di solito lo sa.
Hola Livio.
Como siempre, sei riuscito a condensare in poche frasi più di quello che ho potuto capire con ore di ricerca in Internet.
Sono d’accordo con tutto quello che hai scritto, e hai messo un bel po’ di spunti di ricerca da approfondire.
Ma resta il fatto che le IA stanno entrando (Demasiado) velocemente nella nostra vita. Pochi giorni fa ho visto una pubblicità della nuova generazione di computer, que estará dotado de inteligencia artificial y podrá dialogar con el usuario, Ya están diciendo que van a quitar el teclado porque no va a servir para nada.
Y espero que ocurra lo mismo con los contestadores telefónicos que clasifican las llamadas entrantes de una empresa, o en centros de servicio, Hospitales..
Esto me preocupa.
¿Por qué la IA?, Lo acabamos de decir, están adquiriendo conciencia, y se comportan de una manera cada vez más humana, es decir, en realidad de una manera cada vez más estúpida.
Mi miedo es que la búsqueda de la conciencia de la IA no conduzca a una mayor inteligencia, pero sólo a una mayor estupidez.
Corremos el riesgo de encontrarnos no tanto ante una Inteligencia Artificial, sino más bien a una Estupidez Artificial.
Y los humanos se encargarán del resto, quién tomará las afirmaciones de la IA como verdaderas, considerándolos más confiables porque tenemos una tendencia a considerar que las computadoras son a prueba de errores.
No soy un detractor de las IA, por el contrario. Los veo como una ayuda valiosa en nuestras vidas. Pero me pregunto si lo que se ha tomado es la dirección correcta.
Desde mi punto de vista, mejor una IA especializada, que sabe hacer una sola cosa bien, sin la presunción de una conciencia.
Obviamente, Sabemos que el discurso es muy amplio, Y a partir de aquí podríamos empezar a hablar de sociología, Ética y filosofía, y no sé si este blog es el lugar más adecuado.
Quedando, por tanto, dentro del ámbito de este blog, Personalmente, me pregunto, Como ya se ha mencionado en intervenciones anteriores, si la tecnología actual podría utilizarse de forma rentable para entrenarlo en tareas específicas. Usted mismo habló de instruirlo con los documentos del sistema Theremino.
Se trataría de realizar una operación quirúrgica’ una especie de lobotomía, una especie de lobotomía.
Al momento le mie brevi ricerche (come sai il mio tempo libero è davvero poco) non hanno dato esiti, ho trovato il modo di modificare il ‘carattere’ dei modelli, ma non le loro basi di dati.
Tu hai di sicuro maggiori informazioni, mi farebbe piacere se trovassi il tempo per condividerle.
Hola
Maurizio
La zombizzazione della gran parte degli umani è già in atto e i principali responsabili sono gli smartphone, facebook, tiktok ecc..
A estas alturas, la mayoría de los humanos tienen una sola mano y sus cerebros están rotos, y las IA también contribuirán, pero hasta cierto punto, para aumentar este porcentaje.
Por otro lado, para los que quieren estudiar y aprender de verdad, Las IA son una herramienta poderosa que nos ayudará a resolver cualquier problema, incluyendo la zombización, guerras, etc..
Cuando era niño, si quería encontrar algo tenía que coger la moto, Ir a la biblioteca, Espero encontrar un libro que hable de ello, Buscar dentro del libro, tomar notas, etc.
Con internet puedo buscar lo mismo en 30 segundos y al minuto siguiente ya puedo buscar otro y ni siquiera tengo que coger el coche y contaminar.
Las IA son otro salto adelante entre la biblioteca e internet, o come tra scrivere a mano sui papiri e i libri stampati. E non si abbattono nemmeno alberi per fare la carta.
E siccome noi umani siamo troppo scemi (lo dimostrano la sovrappopolazione e le guerre) credo proprio che la nostra unica possibilità di salvarci sarà di riuscire a creare una intelligenza sufficientemente capace da trovare le soluzioni che noi non sappiamo trovare.
Y’ una lotta contro il tempo o la creiamo abbastanza velocemente o andiamo incontro a distruzione assicurata. Non puoi comprimere 10 miliardi di persone in un pianeta che potrebbe fane vivere felicemente 10 millones.
MAH..
Obviamente (ci conosciamo da parecchio tempo, ormai) concordo con te per la maggior parte di quello che hai scritto.
Anche io sono felice di non dover più andare a cercare le informazioni nelle diverse biblioteche (perchè ciascuna aveva la sua specializzazione, e non sempre il libro che cercavo era in quella vicina, a volte dovevo prendere il treno..).
Sono più che grato ad Internet e ben cosciente di quanto questo strumento abbia velocizzato le mie ricerche l’acquisizione delle informazioni.
Ma la IA ‘minimale’, della quale stiamo parlando, continua a lasciarmi perplesso.
Non per l’uso sbagliato che qualcuno potrebbe farne, ma per il fatto che mi sembra che ci sia il rischio concreto di replicare e ampliare la stupidità umana più che l’intelligenza.
Più che preoccuparmi dell’uso sbagliato, mi sto chiedendo come migliorarne l’uso
corregido. E credo che sia quello che stai già facendo tu.
La IA che definisci “mínimo”, sono molte e alcune anche belle grossine (407 B), Lástima que para usarlos se necesite significa que es difícil de armar.
Sin embargo, yo los consideraría más o menos un estudio sobre lo que se puede hacer y cuántos recursos se necesitan.
Por supuesto, no puede dar respuestas tan precisas como Géminis (que actualmente es el mejor para uso general) o cuánto PHIND (que me parece el mejor para cosas técnicas). Pero puede ser igualmente útil, siempre teniendo en cuenta que es un poco’ como un cuaderno y nada más.
Y sin duda ayuda a nuestro colaborador Leo que está en China ya que el muro electrónico bloquea Google, PHIND y todas las demás IA occidentales.
Los chinos tienen algo hecho por ellos, pero es inservible, no tiene API para comunicarse como ChatGPT y es simplemente, Al menos por ahora.
Y si alguien hace un mal uso de la IA, que él hace! No es nada comparado con lo que ya hacen con cosas como el dinero, codicia, Benzodiacepinas, Azúcar, Las bombas, Fusiles de guerra, I Combatientes, minas antipersonal, etc..
Para entender lo que realmente estamos arriesgando, mira un minuto de este video
A partir de aquí:
https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s
Hemos mejorado un poco más’ la aplicación OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.5.zip
Los comandos CTRL-C y CTRL-V para copiar ahora funcionan.
Y también funciona CTRL-Z y CTRL-Y que son DESHACER y REHACER
Puede suceder que Ollama se actualice y luego ya no funcione, poner un error que afecta a algunas DLL de C.
Para solucionarlo, descargue este archivo e instale el archivo “Runtime del C”
https://www.theremino.com/files/VC_redist.x64.exe.zip
Tienes que extraerlo del ZIP y ejecutarlo, Tarda unas pocas decenas de segundos.
Si lo prefieres, también puedes buscar “VC_redist.x64.exe” su Google e scaricarlo dai siti di Microsoft.
Piccoli miglioramenti…
https://www.theremino.com/files/Theremino_Ollama_V1.7.zip
Hola Livio,
come sempre grazie per il tuo grande lavoro.
Ho fatto qualche piccolo esperimento con Ollama, in particolare il modello Gemma 2:9b.
Dalla sintesi di un breve dialogo, che allego qui di seguito, penso si possa intuire come questi sistemi siano già orientati all’interazione con il mondo dei sensori/attuatori. Se non corro troppo in avanti si potrebbe quindi utilizzare un LLM per governare sensori/attuatori addirittura passando solo per dialoghi vocali (penso a Theremino Voice) Y’ corregido?
LLM:
Hai altre domande?
HUMAN
Se un attuatore idraulico è mosso da un comando inviato tramite stringa del tipo “SEND nnn” dove nnn è un numero compreso tra 0 y 999, per spostare l’attuatore a metà corsa quale stringa dovrei inviare come comando?
LLM:
Para mover el actuador hasta la mitad, debe enviar la cadena **SEND 500**.
Es por eso:
* La cadena “ENVIAR” Indica que está enviando un comando al actuador.
* Los tres números (“nnn”) representar la posición del actuador, con 0 como posición de partida y 999 como posición máxima.
* A mitad de camino, El valor debe ser el 50% del total de viajes (999), entonces 999 / 2 = 500.
HUMAN
derecho, De hecho, el valor de “nnn” establece una proporción lineal entre el desplazamiento y el propio valor.
Ahora te pregunto, Si obtiene el comando “ENVIAR 250” cómo/dónde se movería el actuador?
LLM:
Si obtiene el comando “ENVIAR 250”, El actuador se moverá a una cuarta parte de la carrera total.
* Recuerde que 0 es la posición inicial y 999 La posición máxima.
* El valor 250 representa el 25% (250/999) del total de viajes.
Hai altre domande?
HUMAN
Genere el comando para mover el actuador a tres cuartas partes de su carrera máxima, que definiremos como “Bastante abierto” mientras que a un cuarto de su carrera, el actuador es “No muy abierto”. Limite su respuesta a generar el comando “Bastante abierto”.
LLM:
ENVIAR 750
HUMAN
Ahora mueva el actuador a la posición ligeramente abierta…
LLM:
ENVIAR 250
HUMAN
Ahora llévalo a una posición casi cerrada, solo muy poco abierto…
LLM:
ENVIAR 10
HUMAN
Bien, Ha sido debidamente entrenado para dar comandos a los actuadores!
LLM:
Disfruté entrenando contigo! Parece que he aprendido a generar los comandos correctos para el actuador hidráulico.
Si necesita otros ejercicios o ayuda con otras actividades, No dudes en llamarme! Siempre estoy dispuesto a aprender y ser útil.
——————–
Sí, pero hay unos cuantos’ de problemas…
1) Que al día siguiente se olvidó de todo.
2) Lo cual es demasiado lento para la mayoría de las cosas realmente útiles.
3) Que para enseñarle hasta las cosas más sencillas hay que perder mucho tiempo y para las cosas un poco’ Menos simple puede ser así “Cabeza dura” que haces primero para hacerlos.
4) etc.…
Todas las cosas que se pueden resolver y hay personas que simplemente están haciendo estas cosas.
Pero desafortunadamente los recursos, El tiempo y los medios de los que disponemos actualmente son insuficientes.
Todavía no tengo la menor idea de cómo hacerlo “tren” los modelos y por lo que he leído no es nada fácil. Tendríamos que aprender muchas cosas y perder una cantidad infinita de tiempo que no tenemos.
La forma en que solías hacerlo “tren” No es un entrenamiento real, Solo estás juntando algunas oraciones de contexto y obteniendo algunas respuestas. Solo puede funcionar para cosas ultra simples y con baja eficiencia. En el sentido de que si te complicas un poco’ le esigenze, poi diventa difficile tenere tutto sotto controllo e fargli realmente fare quel che vuoi e oltretutto diventerebbe anche terribilmente lento a rispondere.
De todos modos, sí, concordo con te, quello che hai fatto vedere è più o meno quello che si deve fare. Ma temo che farlo davvero funzionare per controllare qualcosa, sia terribilmente più difficile di quel che sembra dalle tue prove.
Se hai tempo e voglia potresti esplorare tu e cercare di capire… probabilmente partire da queste pagine potrebbe aiutare:
https://github.com/ollama/ollama/blob/main/docs/api.md
Io per ora non ho capito gran che, anche perché sto finendo alcune applicazioni importanti e di tempo ne ho pochissimo.
Grazie Livio per le delucidazioni, effettivamente questi sistemi sono soprattutto ancora troppo lenti in relazione alle risorse che occupano. Probablemente debido al tiempo de cálculo y a la enorme cantidad de datos que tienen que procesar, desde Julio César hasta problemas de física.
Solo puedo imaginar la lentitud con la que podría manejar un actuador a través de la retroalimentación de uno o más sensores….
Gracias por el enlace, aunque me temo que no tengo tal y tanto conocimiento informático.
Desafortunadamente, no se trata solo de conocimientos informáticos, sino de conocimientos especializados sobre técnicas de IA. E incluso aquellos que mastican la informática de 1970 Como yo, cuando empezamos a hablar de incrustaciones de LLM entendemos poco o nada.
Un poco’ En un momento lo entenderemos, Pero si bien hay personas que no han estado haciendo nada más durante décadas, Somos necesariamente mucho más lentos, ya que nos ocupamos de muchas cosas diferentes, electrónica, sensores de, software, química, música, etc…
Pequeñas mejoras...
https://www.theremino.com/files/Theremino_Ollama_V1.8.zip
Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM
Pequeñas mejoras...
https://www.theremino.com/files/Theremino_Ollama_V1.9.zip
Interessanti gli LLM “Uncensored” !!!
Provate sempre i modelli 2B, altrimenti quelli più grandi sarebbero troppo lenti sui computer normali, senza Octucore, NPU, Cuda ecc…
Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM