Escriba aquí preguntas, Comentarios, nuevas ideas y recomendaciones. Escribir sólo el nombre o un apodo como “Me” o “Pippo”, dejando los otros cuadros en blanco.
Añadir también la “Correo electrónico” sólo sirve para distinguir con certeza. Si desea agregar el correo lo hago con confianza, Tenemos mejores cosas que hacer, Recopilamos direcciones para spam.
El Blog no es todo en esta página, vaya al menú “Blog” y elegir un tema.
Si no encuentras la sección adecuada del blog, entrar en esta página y vamos a, encontrar la sección derecha, o crear uno nuevo.
Insertar imágenes y resaltar entradas en el blog
Insertar una imagen:
<img src ="HTTPS://www.xxxx.yyyy.ZZZZ.jpg" Alt ="Descripción de la imagen"/>
Destacar una porción de texto:
<span estilo ="color de fondo: #ffff99;">TEXTO PARA DESTACADO</span>
No dude en hacer experimentos y errores en los mensajes. Si algo sale mal, sólo tienes que escribir un segundo post, con las correcciones que. Haremos las correcciones, y por último tendremos que anular mensajes de servicio.
Hola Livio, Siempre muchos elogios por el trabajo que haces.
Descargué el fonómetro theremino ya que me gustaría intentar hacer algunas mediciones a nivel acústico de una bomba de calor (Unidad condensadora unidad exterior) a varias velocidades de funcionamiento. No puedo encontrar, Si estoy en lo cierto, Indicaciones sobre esquemas/conexiones de micrófonos ECM8000 al maestro en los recursos descargados.
¿Podría darme alguna información al respecto??
Gracias y buen trabajo.
Roberto
El micrófono ECM8000 debe estar conectado a su tarjeta de sonido especial U-PHORIA UM2 fabricada por Behringer
https://www.behringer.com/product.html?modelCode=P0118
https://www.behringer.com/product.html?modelCode=P0DZ3
En comparación con productos de calidad similar, cuestan muy poco.
Eventualmente, también podría alimentar el micrófono con otras tarjetas de sonido de las mismas características, pero siempre adecuado para alimentar micrófonos de condensador.
Si tienes alguna otra duda, pregúntale a Marco quién ha fabricado muchas de estas unidades de control. Quizás también podría darte componentes de segunda mano y seguro que te puede dar buenos consejos y también la última versión de los programas de Metro y Elaboración que aún no hemos publicado.
https://www.theremino.com/contacts/about-us#marco
Lea también los archivos PDF de la documentación.
Hola
Livio
Muchas gracias Livio, Me pondré en contacto con Marco según su sugerencia.
Buena noches
Desafortunadamente, Theremino GPT ya no funciona, encontraremos una solución, pero mientras tanto, para que funcione, debe crear su propia clave en OpenAI como se explica en el archivo "Theremino_GPT_Help.pdf" que puede descargar desde aquí:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
¿Qué pasó?
Alguien en los días transcurridos desde entonces 7 diciembre hasta la fecha ha utilizado GPT4 de una manera que “inmoderado” Y en solo unos días, usó un millón de tokens, mediante el envío masivo de la clave API asociada a nuestra cuenta.
Aprovechemos esta oportunidad para explicar a los que aún no lo saben que GPT4 es muy caro, hasta treinta veces más caro que GPT 3.5 turbo.
Además, GPT4 tarda en responder, por lo que debe usarse con moderación y solo si es necesario.
———————
En los próximos días, lanzaremos una nueva versión de Theremino GPT, Así que esté atento a estos mensajes en la página de noticias.
Por el momento, como se ha escrito, si quieres usar Theremino GPT tienes que crear tu propia clave en OpenAI.
Hemos restablecido Theremino GPT para que funcione.
La versión 4.7 Restaure la operación sin tener que crear su propia clave (dejando en blanco el cuadro OpenAI-KEY).
Como recordatorio, nuestra API-KEY solo funciona con GPT-3.5-turbo.
Aprovechemos esta oportunidad para explicar a los que aún no lo saben que GPT4 es muy caro, hasta treinta veces más caro que GPT 3.5 turbo. Además, GPT4 tarda en responder, por lo que debe usarse con moderación y solo si es necesario.
Descargar 4.7 Desde aquí:
https://www.theremino.com/downloads/intelligenza-artificiale#openai
Hola Livio y todos los desarrolladores de Theremino. Te felicito mucho por lo que has hecho.
Quería compartir el hecho de que me conecté con éxito a un módulo de IoT (El TTGO7ver1.3) una sonda I2C muy interesante, por lo menos para mí. Se trata de la sonda Bosh con sensor BME280, que es un sensor de presión, Temperatura y humedad. El espécimen que compré (unos diez euros) tiene la marca mikroBUS.
Obviamente modifiqué el firmware para que lo lea correctamente y os reporto el programa a continuación, Tal vez sea útil como un ejemplo más.
Hice la conexión física con los pines 21(SDA) y 22(SCL) cuáles son los estándar para ESP32 en comunicaciones I2C. Vi que en los otros ejemplos puedes cambiarlos a voluntad con la biblioteca Wire, No lo logré aquí y por eso los dejé así.
En IotHAL, los pines de datos deben establecerse en “Gen_in_float”.
La fuente de alimentación es de 3,3 V.
¡Gracias de nuevo. Que tengas un buen día.
Alberto
firmware:
// ----------------------------------- Do not remove ---------
#include "IotModule\IotModule.h"
cIotModule IotModule;
// -----------------------------------------------------------
#include “Wire.h”
#include “SPI.h”
#include “Adafruit_Sensor.h”
#include “Adafruit_BME280.h”
#define SEALEVELPRESSURE_HPA (1013.25)
Adafruit_BME280 bme; // I2C
float pressure, mbar_pressure;
// ========================================================================
// SETUP
// ========================================================================
void setup()
{
Serial.begin(9600);
// ------------------------------------ Do not remove ---------
IotModule.initialize();
// ------------------------------------------------------------
unsigned status;
// default settings
// collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
status = bme.begin(0x76);
if (!status)
{
Serial.println("indirizzo sbagliato");
}
}
// ========================================================================
// LOOP
// ========================================================================
void loop()
{
Serial.print(bme.readTemperature());
Serial.print("\n");
IotModule.genericWriteFloat(36, bme.readTemperature());
pressure = bme.readPressure();
mbar_pressure = pressure/100.0 ;
Serial.print(mbar_pressure);
Serial.print("\n");
IotModule.genericWriteFloat(39, mbar_pressure);
Serial.print(bme.readHumidity());
Serial.print("\n");
IotModule.genericWriteFloat(35, bme.readHumidity());
delay(100);
}
Hola Livio
El sistema Theremino con actualizaciones (p. ej. Gráficos) se ha convertido realmente en una herramienta única. Felicidades.
Una curiosidad. Vi tu interés por la Inteligencia Artificial, Yo mismo estoy tratando de crear GPT personalizados sobre temas que me interesan. En su opinión, podría ser posible que un gpt personalizado cree un código para pegarlo en la automatización de theremino explicando lo que quiero hacer ?
Sería una gran cosa tener éxito, pero aún no hemos aprendido a entrenarlos.
Sería genial si pudieras entrenar un modelo dándole todos los PDF que escribimos, Tenemos cientos de ellos y entonces podría facilitar enormemente el uso de nuestras aplicaciones.
Próximamente publicaremos Theremino_LLM que ya no depende de OpenAI sino solo de modelos de código abierto.
Y Theremino_LLM escuchar, Habla, Llamar, Reproducir la música, Ejecuta comandos de domótica, etc.…
Pero por ahora nos limitamos a usar los ya hechos, que se puede encontrar en esta página:
https://ollama.com/library
Muy bien, Imaginé que estabas en la pelota.
En mi ignorancia y con los primeros intentos lo primero que me di cuenta es que la IA hace más lo que quiere y no lo que tú quieres y el entrenamiento no está nada claro, al menos lo que un simple usuario puede hacer con el “crea tu propio GPT”.
Pero “crea tu propio GPT” Dónde lo estás haciendo?
En alguna página de OpenAI o en otro lugar?
dentro de chatGPT está la opción “Explora GPT” Y tú puedes hacerlos “Crea”
puede cargarlos en su GPT personalizado para cargar archivos de referencia, y también instrucciones de referencia.
Los comentarios que les proporciones durante la sesión se perderán cuando se cierra la sesión.
También puede interactuar con el mundo exterior a través de la API (Pero esto es demasiado complicado para mí)
Por ejemplo, estoy haciendo uno para comparar archivos de vibración, Pero no hay mucha consistencia en lo que hace, Por ejemplo, la amortiguación a veces los calcula de una manera, a veces de otra, Estoy tratando de limitarlo a instrucciones más precisas
Entendido, De todos modos, nos estamos separando de OpenAI y en el futuro solo hacemos cosas de código abierto con Ollama.
OpenAI tenía que ser “Abierto” Pero luego engañó a todo el mundo y si quieres usar abejas tienes que pagar por ellas. Así que decidimos abandonarlos.
Y’ Algo muy bueno, Intentaré echarle un vistazo a Ollama
Si haces pruebas, usa gemma2:2b que es rápido y ligero
Ten en cuenta que todo funcionará localmente y por lo tanto debes tener mucha ram (mínimo 8 Giga para modelos más pequeños pero mejores 16, 32 o 64 giga)
Si desea utilizar los modelos más grandes, además de la memoria ram, también necesitaría una tarjeta de video reciente que habilite CUDA en Ollama, de lo contrario, la CPU va a la 90 100% y responden lentamente.
Por gemma2:2B Vas bastante rápido incluso en máquinas pequeñas y ya contiene una cantidad increíble de información, Le he pedido todo y él lo sabe todo. También habla bien en todos los idiomas y es muy similar a ChatGPT 3, todo en poco más de 2 giga.
Si queréis hacer algunas pruebas podéis descargaros esta pequeña aplicación que estamos utilizando para probar las posibilidades de Ollama
https://www.theremino.com/files/Theremino_Ollama_V1.1.zip
Hola Livio.
Intenté iniciar el ejecutable, Pero no entiendo cómo hacer que funcione.
Si presiono 'mostrar información del modelo', Aparece una ventana cmd.exe que dice “Ollama” no se reconoce como un comando interno o externo,
un programa ejecutable o un archivo por lotes.’
Intenté presionar 'iniciar el servidor ollama en esta computadora', y en la ventana del programa veo 'Ahora el servidor Ollama se está ejecutando en esta computadora.
Para acceder a este servidor desde otros dispositivos:
– Deje abierta la ventana COM
– Usar la IP de este equipo, de la siguiente lista:
169.254.213.179 Ethernet
192.168.100.17 Ethernet
169.254.78.201 Conexión de área local (LAN)
192.168.56.1 Ethernet 3
169.254.216.136 Conexión de área local (LAN)* 1
169.254.139.102 Conexión de área local (LAN)* 2
10.146.10.56 Talk2m-eCatcher
169.254.138.238 Talk2m-eCatcher
192.168.1.229 Wi-Fi’
Además, A menudo obtengo una ventana de excepción que no se maneja en la aplicación’
Intenté descargar e instalar ollama, y la instalación fue exitosa, Pero no funciona igual.
Ahora me parece a mí: Modelo no encontrado, Por favor, descárguelo y vuelva a intentarlo.
Puedes escribir un poco más de información?
Gracias
Maurizio
Primero tienes que instalar ollama y creo que lo has hecho
Luego tienes que instalar las plantillas y luego funciona.
Elige gem2:2b u otro pequeño en el cuadro de la plantilla.
A continuación, pulse “Modelo de instalación” y esperar a que se instale.
Si falta una plantilla en el cuadro de plantilla,
Premios “Editar lista de modelos” y luego elija en la página Plantillas
y finalmente agregarlo a la lista.
Si aún no puedes poner Skype en la PC
Y llámame como livio_enrico
A mí me funciona.
Pero no siempre.
De vez en cuando se me aparece a mí también “Modelo no encontrado, por favor, descárguelo y vuelva a intentarModelo no encontrado, Por favor, descárguelo y vuelva a intentarlo”
Pero si voy directamente al símbolo del sistema c;Windows, etc. funciona
Has instalado el modelo más pequeño y rápido?
gemma2:2b
¿Cuánto tiempo se tarda en responder la primera vez??
(cuando él responde)
Digo esto porque si instalas modelos muy lentos o tienes poca ram o tienes una cpu lenta, luego podría tardar decenas de segundos y luego se agotaría el tiempo de espera.
Esperemos que el bud2:2b debe responder a la primera cuestión prejudicial de la siguiente manera: 7 o 10 segundos a lo sumo. Y a las siguientes preguntas de inmediato, es decir, unas décimas de segundo. Y las palabras siempre deben generarlos rápido, Casi diez palabras por segundo.
Sí, instalé gemma2:2b no tarda décimas de segundo, pero también 7-8 segundos. Pero creo que esto está relacionado con mi pc.
Ma c’è modo di addestrarlo caricando informazioni o documenti ?
carateristiche del mio pc
Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 GHz
RAM installata 8,00 GB (6,94 GB utilizzabile)
Ci mette 7 8 secondi la prima volta.
Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?
La prima cosa che puoi fare per velocizzarlo è acquistare due DIMM (credo DIMM4) De 16 giga l’una e aggiungerle alla DIMM che hai.
Così arrivi a 40 giga e puoi fare girare modelli anche leggermente più grandi.
Se però è un notebook ci vogliono DIMM piccole che costano più del doppio e non so se puoi arrivare a 64 giga totali come nei normali PC.
E in tutti i casi fai attenzione al numero di PIN, al DDR 3 o 4, e alle dimensioni, altrimenti compri cose che non riuscirai a montare.
En cuanto a su formación, es otra cosa, Por ahora ya tenemos suficientes para poder hacerlos funcionar bien en la Theremino_LLM app que será similar a Theremino_GPT (que lo hace todo, Habla, Escuchar, Controlar los dispositivos domóticos, Reproduce música y videos, etc.)
Espero que aún no hayas estado usando la sección “Servidor” porque todavía no funcionaba bien.
La parte del servidor le permite instalar Ollama en una sola computadora (posiblemente con mucha ram y con CUDA) y luego usarlo desde todas las demás PC de la red.
Pero si trabajas en una sola PC, realmente no lo necesitas.
En la versión 1.2 que descargar desde aquí, La sección de servidores también funciona bien:
https://www.theremino.com/files/Theremino_Ollama_V1.2.zip
Todavía había una falla, aquí está la versión 1.3
https://www.theremino.com/files/Theremino_Ollama_V1.3.zip
Hola Livio.
Instalé la versión 1.3 Y seguir tus instrucciones ahora funciona.
Ciertamente, un pequeño manual, incluso una página pequeña, podría ayudar.
Por ejemplo,, solo desde la interfaz no había entendido lo del servidor.
La velocidad de respuesta en mi caso es aceptable, bueno, dentro de los tiempos que mencionaste.
Tengo algunas preguntas:
– la IA responde utilizando una base de datos fuera de línea o realiza búsquedas autónomas utilizando la conexión de la computadora host?
– Si no tienes acceso a Internet de forma predeterminada, Puedes habilitarlo?
– Me di cuenta de que si hago una segunda pregunta añadiéndola a la respuesta de la IA, No recibo una respuesta si el texto anterior es muy largo. Si, por el contrario, el texto es corto, o borro el texto y pongo solo mi pregunta, ¡Viene la respuesta. Si no recuerdo mal, con GPT, dejar el texto anterior le dio a las comunicaciones posteriores un contexto de fondo. Con Ollama este concepto se pierde?
– si empiezo con temas 'extraños'’ (Cosas sin sentido, u oxímoron) Respuestas de IA en inglés. ¿Cómo debo interpretar este cambio de comportamiento?? Además, todos los temas posteriores se abordan en inglés, Y para volver al italiano hay que pedirlo de forma bastante explícita
Esto es para empezar con, C
Haremos la documentación cuando la publiquemos.
La IA solo sabe qué hay en los gigabytes de los que se compone el modelo que descargó.
Los modelos que descarga generalmente se actualizan con datos de Internet hasta hace aproximadamente un año. No aprenden nada y no buscan en internet.
Si no tienes acceso a Internet, todo debería funcionar igual (Pero primero debe tener las plantillas instaladas desde Internet).
Si haces una nueva pregunta saliendo del contexto anterior, funciona y tiene en cuenta el contexto, pero puede llegar a ser mucho más lento de responder.
Si comienzas con temas raros o haces cosas raras en inglés, etc… Solo el modelo que usas sabe lo que sucede. No tengo idea de por qué hace esto y probablemente tampoco lo tienen quienes lo entrenaron.
Puede intentar descargar otras plantillas si es necesario (pero siempre pequeño ya que solo tienes 8 giga y creo que no CUDA)
Pruebe con qwen2.1.5b que es el último al final de la lista que dejé en la versión 1.3. Y’ Un poco’ salvaje pero muy rápido y para algunas cosas está bien.
Si quieres ver si Ollama puede acceder a la tarjeta de video CUDA, presiona “Iniciar el servidor Ollama” y luego busque en el texto en blanco sobre negro lo que dice sobre CUDA.
Hemos mejorado un poco la aplicación OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.4.zip
Sin embargo, recuerde que esta es solo una prueba inicial, Más adelante pasará a formar parte de la aplicación Theremino_LLM que será similar a Theremino_GPT
Y Theremino_LLM lo hará todo, es decir, hablar, escuchar, Controlar los dispositivos domóticos, Reproducir música, Abrir y descargar vídeos, teléfono, etc..
Hola Livio.
Esta mañana tengo un poco de’ de ocio, y estoy haciendo algunas pruebas con Ollama – Gema 2.2B, y su versión 1.4.
Me hubiera gustado copiar los diálogos aquí, pero descubrí que no se puede resaltar y copiar desde la ventana de Theremino Ollama.
Resumo lo que he notado por ahora:
A mi solicitud de un pronóstico del tiempo para mi área, Ollama ha 'golpeado al perro en el corral', diciéndome que sin duda puede ayudarme, pero necesita una pregunta más detallada, y que tengo que especificar qué tipo de información necesito (Porcentaje de precipitaciones, Cantidad de lluvia, Fechas del intervalo al que se va a hacer referencia, etc.). Tuve que especificar varias veces, con cada vez más detalles, ¿Qué quería exactamente?, Porque él seguía dando vueltas a mi pregunta, pidiéndole en cambio que dé respuestas. Cuando estaba convencida de que se estaba burlando de mí, Y que nunca obtendría la respuesta que estaba buscando, Me dio predicciones genéricas, pero en línea con lo declarado por los sitios de pronóstico del tiempo. Entonces, me dio la impresión de que había accedido a Internet.
Sin embargo, Al hacer una pregunta directa sobre cómo accede a Internet, responde que no tiene acceso a, Ni directamente ni a través de programas, y que su conocimiento se basa en el conjunto de datos con el que se entrenó.
Me quedo con una duda: Realmente aprendió información en tiempo real de Internet, o aplicó un modelo meteorológico adquirido, lo que predice estadísticamente la lluvia en mi zona en esta época del año? En ambos casos, La respuesta es un poco’ inquietante. Me mintió sobre sus posibilidades reales de acceso, o hacer pasar el contenido de su conjunto de datos como información real?
Además, cuando pregunto sobre lugares o actividades en mi área, A veces inventa nombres inexistentes desde cero, o menciona lugares muy lejanos como locales, también en otras partes del mundo.
Mi primera impresión, que ya había tenido usando ChatGPT, es que la IA ha adquirido de una manera muy acentuada una capacidad completamente humana: la de ser escurridizo, para dar la impresión de saber incluso cuando no sabe, y fingir mayor inteligencia y conocimiento. Hubiera preferido un bonito 'no sé', o 'no incluido en mi conjunto de datos', en lugar de hacerme creer que él sabe, pero que soy yo quien hizo la pregunta incorrectamente.
Porque siempre y cuando la pregunta la haga una persona con preparación técnica, Informados sobre las características del sistema, Las respuestas de la IA tienen el peso que merecen. Pero si el interlocutor es un niño, o una persona mayor, Aprendizaje rápido del aspecto técnico, Las cosas podrían tomar giros desagradables.
También debo agregar que después de la discusión inicial sobre el pronóstico del tiempo, y después de preguntar explícitamente a la IA si podía tener acceso a Internet, como si se hubiera dado cuenta de que la habían descubierto, a preguntas posteriores sobre información en tiempo real, De hecho, respondió diciendo que no tiene acceso a Internet y que solo se basa en su conjunto de datos.
Entonces, para mí, esta IA sigue siendo una "vigilancia especial", Y si tengo tiempo, Verificaré con los programas apropiados cualquier acceso a la red durante el diálogo.
Dicho esto, Espero con ansias ver y probar el Theremino LLM, Siendo esto, Hasta donde tengo entendido, Un controlador domótico avanzado, Espero que no esté influenciado por lo elusivo que mencioné.
Mientras tanto, Intento hablar con otras modelos, para evaluar las diferencias.
Hola
Maurizio
Yo diría que no has entendido muy bien qué son las IA, Trataré de hacer un breve resumen.
Las IA actuales son: “Modelos de lenguaje de gran tamaño” (Modelo de lenguaje grande) y son simplemente una gran pila de “pesos” (similar a las sinapsis humanas). Y estos pesos han sido entrenados mediante la lectura de miles de millones de “cosas” Se encuentra en todas partes.
El motor de IA simplemente identifica las palabras más probables y las junta.
En otras palabras, después de “…Identifica las palabras más probables y ponlas…” La palabra más probable que sigue es “juntos”, o también podría ser “Ponlos uno tras otro” u otras cosas similares.
Una definición muy acertada es que las IA son “Loros altamente educados”. En otras palabras, simplemente barajan las palabras de una manera diferente y las colocan en sucesión.
Pero entonces, ¿cómo es que parece que “Entender” y tener casi una conciencia? Porque las dimensiones de su formación comienzan a ser tan grandes que adquieren un cierto nivel de comprensión y conciencia.
Pero es una consciencia muy limitada ya que estamos hablando solo de 2B (Dos mil millones de parámetros) mientras que ChatGPT y otros incluso llegan a 100B y más.
En otras palabras: Los seres humanos no somos más que “Loros educados” solo que nuestras sinapsis están a punto de 100 millones de veces mayor que los pesos del LLM más grande jamás creado.
Cuando pasas un cierto número de parámetros, la comprensión y la conciencia comienzan a surgir por sí solas. Pero siempre hay que tener en cuenta que con 2B o incluso 20B o incluso 200B siempre son sólo pequeños destellos de comprensión, lejos de la conciencia humana.
Pero también hay que decir que las IA, Aunque los loros simples no son inútiles, De hecho, son una cosa fantástica:
1) Finalmente nos permiten comprender cómo funcionamos nosotros mismos.
2) Nos dan una medida de cuánta complejidad se necesita para crear conciencia.
3) Pueden ser útiles para remezclar oraciones y sintetizar conocimientos tomados aquí y allá.
4) Pueden ser útiles para rastrear rápidamente la información sin tener que buscar en los sitios y desplazarse por páginas y páginas.
Sin embargo, debemos usarlos por lo que son y por lo que pueden hacer.
Considere qué IA está utilizando (si es de 2B, 20B o 200B)
Evite atribuirle la disposición a mentir.
A veces parece voluntad, pero es solo el resultado de un mecanismo que reúne las palabras más probables.
Nosotros, los humanos, también “Juntemos las palabras más probables” pero en lugar de 2 B o 200 B de los que se trata 20 000 000 000 B
Y si realmente tengo que ser honesto… hay personas incluso menos fiables que un AI 2B.
– Personas que creen que la tierra es plana.
– Personas que invertimos todos nuestros recursos en armas en lugar de en atención médica.
– Gente que si les preguntas qué es un metro de Newton piensan que es el metro…
– Etcetera..
Pero intenta preguntarle a una IA, incluso la cosa más pequeña es un medidor de Newton y generalmente lo sabe.
Hola Livio.
Como siempre, lograste condensar más en unas pocas oraciones de lo que podía entender con horas de investigación en Internet.
Estoy de acuerdo con todo lo que escribiste, y le pones mucho tiempo’ de ideas de investigación a explorar.
Pero el hecho es que las IA están entrando (Demasiado) Ayuno en nuestras vidas. Hace unos días vi un anuncio de la nueva generación de ordenadores, que estará dotado de inteligencia artificial y podrá dialogar con el usuario, Ya están diciendo que van a quitar el teclado porque no va a servir para nada.
Y espero que ocurra lo mismo con los contestadores telefónicos que clasifican las llamadas entrantes de una empresa, o en centros de servicio, Hospitales..
Esto me preocupa.
¿Por qué la IA?, Lo acabamos de decir, están adquiriendo conciencia, y se comportan de una manera cada vez más humana, es decir, en realidad de una manera cada vez más estúpida.
Mi miedo es que la búsqueda de la conciencia de la IA no conduzca a una mayor inteligencia, pero sólo a una mayor estupidez.
Corremos el riesgo de encontrarnos no tanto ante una Inteligencia Artificial, sino más bien a una Estupidez Artificial.
Y los humanos se encargarán del resto, quién tomará las afirmaciones de la IA como verdaderas, considerándolos más confiables porque tenemos una tendencia a considerar que las computadoras son a prueba de errores.
No soy un detractor de las IA, por el contrario. Los veo como una ayuda valiosa en nuestras vidas. Pero me pregunto si lo que se ha tomado es la dirección correcta.
Desde mi punto de vista, mejor una IA especializada, que sabe hacer una sola cosa bien, sin la presunción de una conciencia.
Obviamente, Sabemos que el discurso es muy amplio, Y a partir de aquí podríamos empezar a hablar de sociología, Ética y filosofía, y no sé si este blog es el lugar más adecuado.
Quedando, por tanto, dentro del ámbito de este blog, Personalmente, me pregunto, Como ya se ha mencionado en intervenciones anteriores, si la tecnología actual podría utilizarse de forma rentable para entrenarlo en tareas específicas. Usted mismo habló de instruirlo con los documentos del sistema Theremino.
Se trataría de realizar una operación quirúrgica’ una especie de lobotomía, una especie de lobotomía.
Por el momento, mi breve investigación (Como sabéis mi tiempo libre es muy poco) no han dado resultados, Encontré una manera de cambiar el 'personaje'’ de modelos, pero no sus bases de datos.
Seguro que tienes más información, Le agradecería que encontrara el tiempo para compartirlos.
Hola
Maurizio
La zombificación de la mayoría de los humanos ya está en marcha y los principales culpables son los teléfonos inteligentes, Facebook (en inglés), TikTok, etc..
A estas alturas, la mayoría de los humanos tienen una sola mano y sus cerebros están rotos, y las IA también contribuirán, pero hasta cierto punto, para aumentar este porcentaje.
Por otro lado, para los que quieren estudiar y aprender de verdad, Las IA son una herramienta poderosa que nos ayudará a resolver cualquier problema, incluyendo la zombización, guerras, etc..
Cuando era niño, si quería encontrar algo tenía que coger la moto, Ir a la biblioteca, Espero encontrar un libro que hable de ello, Buscar dentro del libro, tomar notas, etc.
Con internet puedo buscar lo mismo en 30 segundos y al minuto siguiente ya puedo buscar otro y ni siquiera tengo que coger el coche y contaminar.
Las IA son otro salto adelante entre la biblioteca e internet, o cómo escribir a mano en papiros y libros impresos. Y ni siquiera se talan árboles para hacer papel.
Y como los humanos somos demasiado estúpidos (Así lo demuestran la superpoblación y las guerras) Realmente creo que nuestra única oportunidad de salvarnos a nosotros mismos será ser capaces de crear una inteligencia lo suficientemente capaz de encontrar las soluciones que no sabemos cómo encontrar.
Y’ Una lucha contra el tiempo: o lo creamos lo suficientemente rápido o nos enfrentamos a una destrucción asegurada. No se puede comprimir 10 Miles de millones de personas en un planeta que podría hacerles vivir felices 10 millones.
MAH..
Obviamente (Nos conocemos desde hace mucho tiempo, A estas alturas) Estoy de acuerdo contigo en la mayor parte de lo que escribiste.
Yo también me alegro de no tener que ir a buscar información a las distintas bibliotecas (porque cada uno tenía su propia especialización, y el libro que buscaba no siempre estaba en el cercano, A veces tenía que tomar el tren.).
Estoy más que agradecido a Internet y soy muy consciente de lo mucho que esta herramienta ha acelerado mi investigación y la adquisición de información.
Pero la IA es "mínima", de la que estamos hablando, sigue desconcertándome.
No por el mal uso que alguien pueda hacer de ella, Sino por el hecho de que me parece que existe un riesgo real de replicar y expandir la estupidez humana en lugar de la inteligencia.
Más que preocuparse por el mal uso, Me pregunto cómo mejorar su uso
corregido. Y supongo que eso es lo que ya estás haciendo.
La IA que tú defines “mínimo”, Hay muchos y algunos incluso hermosos grandes (407 B), Lástima que para usarlos se necesite significa que es difícil de armar.
Sin embargo, yo los consideraría más o menos un estudio sobre lo que se puede hacer y cuántos recursos se necesitan.
Por supuesto, no puede dar respuestas tan precisas como Géminis (que actualmente es el mejor para uso general) o cuánto PHIND (que me parece el mejor para cosas técnicas). Pero puede ser igualmente útil, siempre teniendo en cuenta que es un poco’ como un cuaderno y nada más.
Y sin duda ayuda a nuestro colaborador Leo que está en China ya que el muro electrónico bloquea Google, PHIND y todas las demás IA occidentales.
Los chinos tienen algo hecho por ellos, pero es inservible, no tiene API para comunicarse como ChatGPT y es simplemente, Al menos por ahora.
Y si alguien hace un mal uso de la IA, que él hace! No es nada comparado con lo que ya hacen con cosas como el dinero, codicia, Benzodiacepinas, Azúcar, Las bombas, Fusiles de guerra, I Combatientes, minas antipersonal, etc..
Para entender lo que realmente estamos arriesgando, mira un minuto de este video
A partir de aquí:
https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s
Hemos mejorado un poco más’ la aplicación OLLAMA
https://www.theremino.com/files/Theremino_Ollama_V1.5.zip
Los comandos CTRL-C y CTRL-V para copiar ahora funcionan.
Y también funciona CTRL-Z y CTRL-Y que son DESHACER y REHACER
Puede suceder que Ollama se actualice y luego ya no funcione, poner un error que afecta a algunas DLL de C.
Para solucionarlo, descargue este archivo e instale el archivo “Runtime del C”
https://www.theremino.com/files/VC_redist.x64.exe.zip
Tienes que extraerlo del ZIP y ejecutarlo, Tarda unas pocas decenas de segundos.
Si lo prefieres, también puedes buscar “VC_redist.x64.exe” en Google y descargarlo de los sitios de Microsoft.
Pequeñas mejoras…
https://www.theremino.com/files/Theremino_Ollama_V1.7.zip
Hola Livio,
Como siempre, ¡gracias por vuestro gran trabajo.
Hice algunos pequeños experimentos con Ollama, en particular, el modelo Gemma 2:9b.
Del resumen de un breve diálogo, que adjunto a continuación, Creo que se puede adivinar cómo estos sistemas ya están orientados a la interacción con el mundo de los sensores/actuadores. Si no corro demasiado hacia adelante, podría usar un LLM para gobernar los sensores/actuadores incluso pasando solo a través de diálogos vocales (Estoy pensando en Theremino Voice) Y’ corregido?
LLM:
¿Tienes alguna otra pregunta??
HUMANO
Si un actuador hidráulico se mueve mediante un comando enviado a través de una cadena del tipo “ENVIAR nnn” donde nnn es un número entre 0 y 999, Para mover el actuador hasta la mitad, ¿qué cadena debo enviar como comando??
LLM:
Para mover el actuador hasta la mitad, debe enviar la cadena **SEND 500**.
Es por eso:
* La cadena “ENVIAR” Indica que está enviando un comando al actuador.
* Los tres números (“nnn”) representar la posición del actuador, con 0 como posición de partida y 999 como posición máxima.
* A mitad de camino, El valor debe ser el 50% del total de viajes (999), entonces 999 / 2 = 500.
HUMANO
derecho, De hecho, el valor de “nnn” establece una proporción lineal entre el desplazamiento y el propio valor.
Ahora te pregunto, Si obtiene el comando “ENVIAR 250” cómo/dónde se movería el actuador?
LLM:
Si obtiene el comando “ENVIAR 250”, El actuador se moverá a una cuarta parte de la carrera total.
* Recuerde que 0 es la posición inicial y 999 La posición máxima.
* El valor 250 representa el 25% (250/999) del total de viajes.
¿Tienes alguna otra pregunta??
HUMANO
Genere el comando para mover el actuador a tres cuartas partes de su carrera máxima, que definiremos como “Bastante abierto” mientras que a un cuarto de su carrera, el actuador es “No muy abierto”. Limite su respuesta a generar el comando “Bastante abierto”.
LLM:
ENVIAR 750
HUMANO
Ahora mueva el actuador a la posición ligeramente abierta…
LLM:
ENVIAR 250
HUMANO
Ahora llévalo a una posición casi cerrada, solo muy poco abierto…
LLM:
ENVIAR 10
HUMANO
Bien, Ha sido debidamente entrenado para dar comandos a los actuadores!
LLM:
Disfruté entrenando contigo! Parece que he aprendido a generar los comandos correctos para el actuador hidráulico.
Si necesita otros ejercicios o ayuda con otras actividades, No dudes en llamarme! Siempre estoy dispuesto a aprender y ser útil.
——————–
Sí, pero hay unos cuantos’ de problemas…
1) Que al día siguiente se olvidó de todo.
2) Lo cual es demasiado lento para la mayoría de las cosas realmente útiles.
3) Que para enseñarle hasta las cosas más sencillas hay que perder mucho tiempo y para las cosas un poco’ Menos simple puede ser así “Cabeza dura” que haces primero para hacerlos.
4) etc.…
Todas las cosas que se pueden resolver y hay personas que simplemente están haciendo estas cosas.
Pero desafortunadamente los recursos, El tiempo y los medios de los que disponemos actualmente son insuficientes.
Todavía no tengo la menor idea de cómo hacerlo “tren” los modelos y por lo que he leído no es nada fácil. Tendríamos que aprender muchas cosas y perder una cantidad infinita de tiempo que no tenemos.
La forma en que solías hacerlo “tren” No es un entrenamiento real, Solo estás juntando algunas oraciones de contexto y obteniendo algunas respuestas. Solo puede funcionar para cosas ultra simples y con baja eficiencia. En el sentido de que si te complicas un poco’ Necesidades, Entonces se hace difícil mantener todo bajo control y realmente hacer que haga lo que quieres y, además, también se volvería terriblemente lento para responder.
De todos modos, sí, Estoy de acuerdo contigo, Lo que has demostrado es más o menos lo que hay que hacer. Pero me temo que hacer que realmente funcione para controlar algo, Es terriblemente más difícil de lo que parece después de tus pruebas.
Si tienes tiempo y ganas, puedes explorar y tratar de entender… Probablemente a partir de estas páginas podría ayudar:
https://github.com/ollama/ollama/blob/main/docs/api.md
Por ahora no he entendido mucho, también porque estoy terminando algunas aplicaciones importantes y tengo muy poco tiempo.
Gracias Livio por las aclaraciones, De hecho, estos sistemas son, sobre todo, demasiado lentos en relación con los recursos que ocupan. Probablemente debido al tiempo de cálculo y a la enorme cantidad de datos que tienen que procesar, desde Julio César hasta problemas de física.
Solo puedo imaginar la lentitud con la que podría manejar un actuador a través de la retroalimentación de uno o más sensores….
Gracias por el enlace, aunque me temo que no tengo tal y tanto conocimiento informático.
Desafortunadamente, no se trata solo de conocimientos informáticos, sino de conocimientos especializados sobre técnicas de IA. E incluso aquellos que mastican la informática de 1970 Como yo, cuando empezamos a hablar de incrustaciones de LLM entendemos poco o nada.
Un poco’ En un momento lo entenderemos, Pero si bien hay personas que no han estado haciendo nada más durante décadas, Somos necesariamente mucho más lentos, ya que nos ocupamos de muchas cosas diferentes, electrónica, sensores de, software, química, música, etc…
Pequeñas mejoras...
https://www.theremino.com/files/Theremino_Ollama_V1.8.zip
Son solo experimentos… Tomará un tiempo’ Para terminar el verdadero Theremino_LLM
Pequeñas mejoras...
https://www.theremino.com/files/Theremino_Ollama_V1.9.zip
Los LLM son interesantes “Sin censura” !!!
Pruebe siempre los modelos 2B, de lo contrario, los más grandes serían demasiado lentos en las computadoras normales, sin Octucore, NPU (Unidad Nacional de Acción, Cuda, etc.…
Son solo experimentos... Tomará un tiempo terminar el verdadero Theremino_LLM