博客

在这里写问题, 评论, 建议和新的想法. 写的名字或昵称像 “我” 或 “皮波”, 将其他框留空.

此外将添加 “电子邮件” 仅用于明确区分. 如果您想要添加邮件做到信心, 我们有更好的事情要做, 我们收集的垃圾邮件的地址.

博客不是所有在此页, 你转到菜单 “博客” 选择一个主题.

如果你找不到适当的博客节, 在此页上输入和我们会, 找到正确的部分, 或创建一个新.


插入图像和突出的博客帖子

插入图片:

<img src ="HTTPS://www.xxxx.yyyy.zzzz.jpg" alt ="图像描述"/>

突出显示文本的一部分:

<大跨度风格 ="背景颜色: #ffff99;">突出显示文本</跨度>

随时可以犯错,实验在员额. 如果出了什么差错, 只是写第二个职位, 与做的更正. 我们将做更正,并最后我们将取消服务消息.

  1. 罗伯托 说:

    你好 Livio, 对你所做的工作总是有很多赞美.
    我下载了theremino留声机, 因为我想尝试在热泵的声学水平上进行一些测量 (冷凝机组室外机) 在各种运行速度下. 我找不到, 如果我是对的, 有关下载资源中与主站ECM8000的麦克风原理图/连接指示.
    你能给我一些这方面的信息吗??

    谢谢,好的工作.

    罗伯托 ·

  2. 里维奥 说:

    不幸的是, Theremino GPT 不再有效, 我们会找到一个解决方案,但与此同时,要使其正常工作,您必须在 OpenAI 上制作自己的密钥,如您可以从此处下载的“Theremino_GPT_Help.pdf”文件中所述:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

    发生了什么事?
    从那以后的日子里有人 7 12 月迄今为止,GPT4 的使用方式是 “不适度” 在短短几天内,它使用了一百万个代币, 通过批量发送与我们帐户关联的 API 密钥.

    让我们借此机会向那些还不知道 GPT4 非常昂贵的人解释一下, 比 GPT 贵 30 倍 3.5 汽.

    此外,GPT4 响应缓慢,因此应谨慎使用,仅在必要时使用.

    ———————

    在接下来的几天里, 我们将发布新版本的 Theremino GPT, 因此,请留意新闻页面上的这些消息.

    现在, 正如已经写, 如果你想使用 Theremino GPT, 你必须在 OpenAI 上制作自己的密钥.

  3. 里维奥 说:

    我们已经重置 Theremino GPT 以工作.

    版本 4.7 无需制作自己的密钥即可恢复操作 (将 OpenAI-KEY 框留空).

    提醒一下,我们的 API-KEY 仅适用于 GPT-3.5-turbo.

    让我们借此机会向那些还不知道 GPT4 非常昂贵的人解释一下, 比 GPT 贵 30 倍 3.5 汽. 此外,GPT4 响应缓慢,因此应谨慎使用,仅在必要时使用.

    下载 4.7 从这里:
    https://www.theremino.com/downloads/intelligenza-artificiale#openai

  4. 阿尔贝托 说:

    你好 Livio 和 Theremino 的所有开发人员. 我祝贺你所做的一切.

    我想分享一个事实,即我已经成功连接到theremino Iot Module (TTGO7版本1.3) 一个非常有趣的 I2C 探头, 至少对我来说. 这是带有 BME280 传感器的 Bosh 探头, 这是一个压力传感器, 温度和湿度. 我买的标本 (约10欧元) 品牌名称为 mikroBUS.

    显然,我已经修改了固件,使其正确读取,并在下面报告程序, 也许它作为一个额外的例子很有用.

    我与引脚建立了物理连接 21(国家药品监督管理局) 和 22(沙田至中环线) 这是 I2C 通信中 ESP32 的标准. 我已经在其他示例中看到,您可以使用 Wire 库随意更改它们, 我在这里没有成功,所以我就这样离开了他们.

    在 IotHAL 中,数据引脚设置为 “Gen_in_float”.

    电源电压为3.3V.

    再次感谢你. 有好的一天.
    Alberto

    固件:

    // ----------------------------------- Do not remove ---------
    #include "IotModule\IotModule.h"
    cIotModule IotModule;

    // -----------------------------------------------------------
    #include “Wire.h”
    #include “SPI.h”
    #include “Adafruit_Sensor.h”
    #include “Adafruit_BME280.h”

    #define SEALEVELPRESSURE_HPA (1013.25)

    Adafruit_BME280 bme; // I2C

    float pressure, mbar_pressure;

    // ========================================================================
    // SETUP
    // ========================================================================
    void setup()
    {
    Serial.begin(9600);
    // ------------------------------------ Do not remove ---------
    IotModule.initialize();
    // ------------------------------------------------------------
    unsigned status;
    // default settings
    // collegare il modulo ai pin corretti (ttgo7ver1.3 SDA:pin 21 SCL:pin 22)
    status = bme.begin(0x76);
    if (!status)
    {
    Serial.println("indirizzo sbagliato");
    }
    }

    // ========================================================================
    // LOOP
    // ========================================================================
    void loop()
    {
    Serial.print(bme.readTemperature());
    Serial.print("\n");
    IotModule.genericWriteFloat(36, bme.readTemperature());
    pressure = bme.readPressure();
    mbar_pressure = pressure/100.0 ;
    Serial.print(mbar_pressure);
    Serial.print("\n");
    IotModule.genericWriteFloat(39, mbar_pressure);
    Serial.print(bme.readHumidity());
    Serial.print("\n");
    IotModule.genericWriteFloat(35, bme.readHumidity());
    delay(100);
    }

  5. geofaber 说:

    你好 Livio
    带有更新的 Theremino 系统 (例如:Graphs) 真正成为一种独特的工具. 祝贺.
    好奇心. 我看到了您对人工智能的兴趣, 我自己正在尝试针对我感兴趣的主题创建自定义 GPT. 在您看来,可以让自定义 gpt 创建一个代码粘贴到 theremino 自动化中,以解释我想做什么 ?

    • 里维奥 说:

      成功将是一件好事,但我们还没有学会培训他们.
      如果您可以通过提供我们编写的所有 PDF 来训练模型,那就太好了, 我们有数百个应用程序,然后它可以极大地方便使用我们的应用程序.

      很快,我们将发布不再依赖 OpenAI 而只依赖开源模型的 Theremino_LLM.
      Theremino_LLM, 说, 叫, 播放音乐, 执行家庭自动化命令, 等…

      但现在我们仅限于使用现成的, 可以在此页面上找到:
      https://ollama.com/library

      • geofaber 说:

        非常好, 我想象你正在球上.
        在我的无知中,在第一次尝试中,我意识到的第一件事是 AI 更多地做它想做的事,而不是你想要的,而且训练根本不清楚, 至少简单用户可以使用 “创建您自己的 GPT”.

  6. geofaber 说:

    在 chatGPT 中,有选项 “探索 GPT” 你可以做到 “创建”
    您可以在自定义 GPT 中上传它们以上传参考文件, 以及参考说明.
    您在会话期间提供给他们的反馈将在会话关闭时丢失.
    您还可以通过 API 与外界互动 (但这对我来说太复杂了)
    例如,我正在制作一个来比较振动文件, 但他所做的事情并没有太多的一致性, 例如,阻尼有时以一种方式计算它们,有时以另一种方式计算它们, 我试图将其限制为更精确的指令

    • 里维奥 说:

      理解, 无论如何,我们正在脱离 OpenAI,未来我们只使用 Ollama 做开源的事情.

      OpenAI 必须 “开放” 但后来他愚弄了所有人,如果你想用蜜蜂,你就得付钱买它们. 所以我们决定放弃他们.

  7. Geofabe 公司 说:

    和’ 一件非常好的事情, 我试着看看 Ollama

    • 里维奥 说:

      如果您执行测试,请使用 gemma2:2b 又快又轻
      请记住,一切都在本地工作,因此您必须有足够的内存 (最低 8 Giga 适用于较小的模型,但效果更好 16, 32 或 64 千兆)
      如果您想使用更大的模型,除了 ram 之外,您还需要一个最新的显卡,可以在 Ollama 上启用 CUDA, 否则,CPU 将转到 90 100% 并缓慢响应.

      由 gemma2:2b 即使在小型机器上,您的速度也相当快,并且它已经包含了大量的信息, 我要求一切,他什么都知道. 它还可以在所有语言中都能说得很好,并且与 ChatGPT 非常相似 3, 总之 2 千兆.

    • 里维奥 说:

      如果您想做一些测试,您可以下载我们正在使用的这个小应用程序来尝试 Ollama 的可能性
      https://www.theremino.com/files/Theremino_Ollama_V1.1.zip

      • 毛里齐奥 说:

        你好 Livio.

        我尝试启动可执行文件, 但我不明白如何让它工作.
        如果我按“显示模型信息”, 我看到一个 cmd.exe 窗口,上面写着 “奥拉马” 未识别为内部或外部命令,
        可执行程序或批处理文件。’
        我尝试按“在此计算机上启动 ollama 服务器”, 在程序窗口中,我看到“现在 Ollama 服务器正在这台计算机上运行.

        从其他设备访问此服务器:
        – 使 COM 窗口保持打开状态
        – 使用这台电脑的 IP, 从以下列表中:

        169.254.213.179 以太网
        192.168.100.17 以太网
        169.254.78.201 本地连接 (局域网)
        192.168.56.1 以太网 3
        169.254.216.136 本地连接 (局域网)* 1
        169.254.139.102 本地连接 (局域网)* 2
        10.146.10.56 Talk2m-eCatcher 系列
        169.254.138.238 Talk2m-eCatcher 系列
        192.168.1.229 无线上网’

        另外, 我经常遇到一个未在应用程序中处理的异常窗口’

        我尝试下载并安装 ollama, 并且安装成功, 但它的效果并不相同.
        现在它似乎在我看来: 找不到模型, 请下载并重试.

        您可以编写更多信息?

        谢谢
        毛里齐奥

        • 里维奥 说:

          首先,您必须安装 ollama,我认为您已经做到了
          然后你必须安装模板,然后它才能工作.

          选择 gem2:2b 或模板框中的另一个小的.
          然后按 “安装模型” 并等待它安装.

          如果模板框中缺少模板,
          奖项 “编辑模型列表” ,然后在 Templates (模板) 页面上选择
          最后将其添加到列表中.

          如果您仍然无法将 Skype 安装到 PC 上
          并像 livio_enrico 一样称呼我

        • geofaber 说:

          它对我有用.
          但并非总是如此.

          我时不时也会觉得 “找不到模型, 请下载它,但未找到 retryModel, 请下载并重试”
          但是如果我直接转到 c 提示符;Windows 等有效

          • 里维奥 说:

            您已安装了最小、最快的型号?
            杰玛2:2b

            第一次回答需要多长时间?
            (当他回应时)

            Dico questo perché se installi modelli molto lenti o hai poca ram o hai la cpu lenta, allora potrebbe metterci decine di secondi e poi andare in timeout.

            Se tutto va bene il gemma2:2b dovrebbe rispondere alla prima domanda entro 7 或 10 secondi al massimo. E alle domande seguenti in modo immediato, cioè pochi decimi di secondo. E le parole dovrebbe sempre generarle velocemente, quasi dieci parole al secondo.

            • geofaber 说:

              si ho installato gemma2:2b non ci mette decimi di secondo ma anche 7-8 秒. Ma penso che questo sia legato al mio pc.
              Ma c’è modo di addestrarlo caricando informazioni o documenti ?

              carateristiche del mio pc
              Processore AMD Ryzen 5 3500U with Radeon Vega Mobile Gfx 2.10 G h z
              RAM installata 8,00 GB (6,94 GB utilizzabile)

              • 里维奥 说:

                Ci mette 7 8 secondi la prima volta.
                Ma se fai una seconda domanda senza attendere troppo tempo è istantaneo no ?

                要加快速度,您可以做的第一件事是购买两个 DIMM (我相信 DIMM4) 之 16 每个并将它们添加到您拥有的 DIMM 中.
                因此,您可以 40 giga 的 Giga ,您甚至可以运行稍大的模型.

                但是,如果是笔记本电脑,您需要价格高出两倍以上的小型 DIMM,我不知道您是否能买到 64 与普通 PC 一样的总 GB.
                在所有情况下,请注意 PIN 码, 前往 DDR 3 或 4, 和维度, 否则你买的东西你将无法组装.

                关于培训他们,则完全是另一回事, 目前,我们已经有足够的资源使它们在 Theremino_LLM 应用程序中运行良好,这将类似于 Theremino_GPT (无所不能, 说, 听, 控制家庭自动化设备, 播放音乐和视频等。)

  8. 里维奥 说:

    我希望你还没有使用这个部分 “服务器” 因为它仍然运行不善.
    服务器部分允许您在单台计算机上安装 Ollama (可能有很多 RAM 和 CUDA) 然后从网络上的所有其他 PC 使用它.
    但是,如果您在一台 PC 上工作,您实际上并不需要它.

    在版本 1.2 你从这里下载, server 部分也运行良好:
    https://www.theremino.com/files/Theremino_Ollama_V1.2.zip

  9. 毛里齐奥 说:

    你好 Livio.
    我安装了该版本 1.3 现在,按照您的指示工作.
    当然是一本小手册, 即使是一个小页面, 可以提供帮助.
    例如,, 仅从界面来看,我并不了解服务器的事情.
    在我的情况下,响应速度是可以接受的, 在你提到的时代.

    我有几个问题:
    – AI 使用离线数据库进行响应或使用主机的连接进行自主搜索?
    – 如果您默认无法访问 Internet, 您可以启用它?
    – 我注意到,如果我通过将其附加到 AI 的答案来提出第二个问题, 如果前面的文本很长,我得不到答案. 另一方面,如果文本很短, 或者我删除了文本并只放置了我的问题, 答案来了. 如果我没记错的话, 使用 GPT 时,保留前面的文本会为后续通信提供背景上下文. 在 Ollama 中,这个概念就消失了?
    – 如果我开始“奇怪”的话题’ (荒谬的事情, 或矛盾修辞法) 英文 AI 答案. 我应该如何解释这种行为变化? 另外, 所有后续主题均以英语进行讨论, 要回到意大利语,你必须非常明确地要求它

    这是从, C

    • 里维奥 说:

      我们将在发布时进行文档编写.

      AI 只知道您下载的模型是由 GB 组成的 GB 中的内容.
      您下载的模型通常使用大约一年前的 Internet 数据进行更新. 他们什么都学不到,也不在互联网上搜索.

      如果您无法访问 Internet,则一切应该相同 (但首先您需要从 Internet 安装模板).

      如果你提出一个新问题,离开之前的上下文,它会起作用并考虑上下文,但回答速度可能会慢得多.

      如果你从奇怪的话题开始或用英语做奇怪的事情等… 只有您使用的模型知道会发生什么. 我不知道他为什么这样做,可能那些训练他的人也不知道.

      如有必要,您可以尝试下载其他模板 (但总是很小的,因为你只有 8 giga 我认为没有 CUDA)
      尝试使用 qwen2.1.5b,这是我在版本中留下的列表底部的最后一个 1.3. 和’ 一点儿’ 狂野但非常快,对于某些事情来说没关系.

      如果您想查看 Ollama 是否可以访问您的视频卡的 CUDA,请按 “启动 Ollama 服务器” 然后搜索黑底白字文本,了解它对 CUDA 的看法.

    • 里维奥 说:

      我们对 OLLAMA 应用程序进行了一些改进
      https://www.theremino.com/files/Theremino_Ollama_V1.4.zip

      但请记住,这只是一个初始测试, 稍后它将成为 Theremino_LLM 应用程序的一部分,类似于 Theremino_GPT

      Theremino_LLM 将做到这一切, 也就是说,可以说, 听, 控制家庭自动化设备, 播放音乐, 打开和下载视频, 电话, 等。.

      • 毛里齐奥 说:

        你好 Livio.

        今天早上我有一点’ 闲暇, 我正在用 Ollama 做一些测试 – 宝石 2.2B, 和您的版本 1.4.
        我本来想把对话复制在这里, 但我发现您无法从 Theremino Ollama 窗口突出显示和复制.

        我总结了我现在注意到的情况:
        我请求我所在地区的天气预报, Ollama “在农家院里打败了狗”, 告诉我它当然可以帮助我,但需要一个更详细的问题, 并且我必须指定我需要什么样的信息 (降雨量百分比, 降雨量, 要引用的范围的日期, 等). 我不得不多次指定, 细节不断增加, 我到底想要什么, 因为他一直在绕着我的问题转, 要求 而不是给出答案. 当我确信他在取笑我时, 而且我永远不会得到我一直在寻找的答案, 他给了我一般的预测, 但与天气预报网站宣布的一致. 然后, 给我的印象是我访问了互联网.
        然而, 通过直接询问您如何访问互联网, 他无权访问的回复, 既不能直接或通过程序, 并且它的知识基于训练它的数据集.
        我有一个疑问: 他真的是从互联网上学习实时信息, 或应用获取的天气模型, 它从统计学上预测了我所在地区每年这个时候的降雨情况? 在这两种情况下, 答案是一点’ 令人不安. 他对我撒了谎,说他真的有可能进入, 或将其数据集的内容作为真实信息传递?
        另外, 当我询问我所在地区的地点或活动时, 有时他会从头开始发明不存在的名字, 或者他提到非常遥远的地方是本地的, 在世界其他地区也是如此.
        我的第一印象, 我已经使用 ChatGPT 拥有, 是 AI 以一种非常突出的方式获得了一种完全人类的能力: 难以捉摸, 给人一种即使他不知道也知道的印象, 并假装更聪明、更有知识. 我更喜欢一个不错的 'I don't know”, 或“未包含在我的数据集中”, 而不是让我相信他知道,而是我问错了这个问题.
        因为只要问题是由有技术准备的人提出的, 了解系统特性, AI 响应具有应有的分量. 但是,如果对话者是儿童, 或老年人, 技术方面的快速学习, 事情可能会发生不愉快的转折.
        我还必须补充一点,在对天气预报的初步讨论之后, 并在明确询问 AI 是否可以访问互联网之后, 仿佛她已经意识到自己被发现了, 到后续关于实时信息的问题, 他实际上回答说,他无法访问互联网,只基于他的数据集.
        然后, 对我来说,这个 AI 仍然是“特殊监控”, 如果我有时间, 在对话期间,我将检查适当的程序是否访问网络.

        话虽这么说, 我期待看到并尝试 Theremino LLM, 那个, 据我所知, 先进的家庭自动化控制器, 我希望它不会受到我提到的难以捉摸的影响.

        同时, 我尝试与其他模型交谈, 评估差异.

        你好
        毛里齐奥

        • 里维奥 说:

          我想说的是,你还不太了解什么是 AI, 我将尝试做一个简短的总结.

          当前的 AI 是 “大型语言模型” (大型语言模型) 而他们只是一大堆 “重量” (类似于人类突触). 而这些权重是通过读取数十亿个 “事情” 随处可见.

          AI 引擎只是精确定位最可能的单词并将它们放在一起.
          换句话说,在 “…找出最可能的单词并放入…” 后面最可能的词是 “在一起”, 或者也可能是 “把它们一个接一个地放” 或其他类似的东西.

          一个非常贴切的定义是 AI 是 “受过高等教育的鹦鹉”. 换句话说,他们只是以不同的方式洗牌并连续放置单词.

          但是,为什么看起来 “理解” 并且几乎有良心? 因为他们训练的维度开始如此之大,以至于他们获得了一定程度的理解和意识.

          但这是一个非常有限的意识,因为我们只谈论 2B (20 亿个参数) 而 ChatGPT 和其他 API 甚至高达 100B 甚至更高.

          换句话说: 我们人类只不过是 “受过教育的鹦鹉” 只是我们的突触是关于 100 比有史以来最大的 LLM 的重量大数百万倍.

          当你通过一定数量的参数时,理解力和意识开始自行涌现. 但请始终记住,对于 2B 甚至 20B 甚至 200B,它们总是只是理解的短暂闪现, 远离人类意识.

          但也必须说,AI, 虽然简单的鹦鹉并非毫无用处, 他们确实是一件了不起的事情:

          1) 它们最终让我们了解我们自己是如何运作的.
          2) 它们让我们衡量了创造意识需要多少复杂性.
          3) 它们可用于重新混合句子和综合这里和那里的知识.
          4) 它们可用于快速跟踪信息,而无需搜索网站并滚动浏览页面和页面.

          但是,我们必须利用它们是什么以及它们可以做什么.
          考虑您正在使用的 AI (如果来自 2B, 20B 或 200B)
          避免将他愿意撒谎归咎于他.
          有时它看起来像是会的,但这只是将最可能的词放在一起的机制的结果.

          我们人类也是 “让我们把最可能的词放在一起” 但不是 2 B 或 200 B 我们差不多 20 000 000 000 B

  10. 里维奥 说:

    如果我真的必须说实话… 有些人甚至不如 AI 2B 可靠.
    – 相信地球是平的.
    – 那些把我们所有的资源都投入到武器而不是医疗保健中的人.
    – 如果你问他们什么是牛顿地铁,人们会认为这是地铁…
    – 等。.

    但是试着问 AI,即使是最小的东西也是牛顿米,通常都知道它.

    • 毛里齐奥 说:

      你好 Livio.

      一如往常, 你设法将更多内容浓缩成几句话,超出了我在互联网上花费数小时研究所能理解的内容.
      我同意你写的一切, 你投入了很多时间’ 有待探索的研究思路.
      但事实仍然是 AI 正在进入 (太多了) 我们生活中的 Fast. 前几天,我看到了一则新一代电脑的广告, 它将配备人工智能,并能够与用户对话, 他们已经说要把键盘拿掉,因为它会没用.
      我预计同样的事情也会发生在对公司来电进行分类的电话接听器上, 或在服务中心, 医院。.
      这让我很担心.
      为什么选择 AI, 我们只是说了, 正在获得意识, 并以越来越人性化的方式行事, 也就是说,实际上以一种越来越愚蠢的方式.
      我担心的是,对 AI 意识的探索不会带来更高的智能, 但只会变得更加愚蠢.
      我们可能会发现自己面对的人工智能并不多, 而是人造的愚蠢.
      剩下的交给人类, 谁会把 AI 的说法当作真的, 认为它们更可靠,因为我们倾向于认为计算机是防错的.

      我不是 AI 的批评者, 与此相反. 我认为它们是我们生活中的宝贵帮助. 但我在想,所采取的方向是否正确.
      从我的角度来看, 更好的专业 AI, 谁知道如何只做好一件事, 没有良心的假设.

      很明显, 我们知道,讨论范围非常广泛, 从这里开始,我们可以开始谈论社会学, 伦理与哲学, 我不知道这个博客是否是最合适的地方.

      因此,请保留在本博客的范围内, 就我个人而言,我想知道, 正如在之前的演讲中已经提到的, 当前技术是否可以有利可图地用于训练 IT 完成特定任务. 你自己说过用 Theremino 系统的文件来指导它.
      这将是一个进行外科手术的问题’ 一种脑叶切开术, 这将使 AI 的意识降低,但对我们需要的东西更有经验.
      目前,我的简短研究 (如您所知,我的空闲时间很少) 未产生结果, 我找到了一种改变 '字符’ 型号, 但不是他们的数据库.
      您肯定有更多信息, 如果您能抽出时间分享它们,我将不胜感激.

      你好
      毛里齐奥

  11. 里维奥 说:

    大多数人的僵尸化已经在进行中,罪魁祸首是智能手机, 脸书, TikTok 等。.

    到目前为止,大多数人只有一只手,他们的大脑已经坏了,人工智能也会做出贡献, 但在很小的程度上, 提高此百分比.

    另一方面,对于那些想要学习和真正学习的人, AI 是一个强大的工具,可以帮助我们解决任何问题, 包括僵尸化, 战争等。.

    当我还是个孩子的时候,如果我想找点什么,我就必须骑摩托车, 前往图书馆, 希望找到一本谈论它的书, 在书内搜索, 做笔记等.
    通过互联网,我可以在 30 几秒钟,下一分钟我已经可以寻找另一个,我什至不必开车去污染.
    AI 是图书馆和互联网之间的另一个飞跃, 或如何在纸莎草纸和印刷书籍上手写. 你甚至不砍伐树木来造纸.

    既然我们人类太愚蠢了 (人口过剩和战争证明了这一点) 我真的相信,我们拯救自己的唯一机会是能够创造出一个有能力的智能,以找到我们不知道如何找到的解决方案.

    和’ 与时间的斗争,要么我们足够快地创造它,要么我们肯定会面临毁灭. 您无法压缩 10 地球上数十亿人可以让他们过上幸福的生活 10 数百万.

    • 毛里齐奥 说:

      马来酸酐。.
      很明显 (我们认识很久了, 到现在为止) 我同意你写的大部分内容.
      我也很高兴我不再需要在各种图书馆中寻找信息 (因为每个都有自己的专业, 而且我正在寻找的书并不总是在附近的那本书里, 有时我不得不坐火车。).
      我非常感谢互联网,并且很清楚这个工具在多大程度上加快了我的研究和信息获取速度.
      但“最小”AI, 我们正在谈论的, 继续困扰我.
      不是因为有人可能错误地使用它, 但事实上,在我看来,复制和扩展人类的愚蠢而不是智能是真正的风险.
      不仅仅是担心错误使用, 我在想如何改进它的使用
      更正. 我想这就是你已经在做的事情.

      • 里维奥 说:

        您定义的 AI “最小”, 有很多,有些甚至很漂亮 (407 B), 太糟糕了,要使用它们,你需要意味着很难放在一起.
        然而,我认为它们或多或少是关于可以做什么以及需要多少资源的研究.

        当然,它不能给出像 Gemini 那样精确的答案 (这是目前最适合一般用途的) 或者 PHIND 多少 (我发现最适合技术性的东西). 但它同样是有用的,始终考虑到它是一点点’ 就像一个笔记本,仅此而已.

        这当然有助于我们的合作者 Leo,他在中国,因为电子墙挡住了 Google, PHIND 和所有其他西方 AI.
        中国人有他们制造的东西,但无法使用, 它没有像 ChatGPT 那样的 API 来通信,它只是, 至少现在是这样.

  12. 里维奥 说:

    如果有人滥用 AI, 他确实如此! 与他们已经用钱等东西做的事情相比,这算不了什么, 贪婪, 苯二氮卓类药物, 糖, 炸弹, 战争步枪, I 战士, 杀伤人员地雷等.

    要了解我们真正面临的风险,请观看此视频的一分钟
    从这里:
    https://www.youtube.com/watch?v=tesv0xoNhCo&t=58s

  13. theremino 说:

    我们进步了一点’ OLLAMA 应用程序
    https://www.theremino.com/files/Theremino_Ollama_V1.5.zip

    用于复制命令的 CTRL-C 和 CTRL-V 现在可以正常工作.
    它也可以使用 CTRL-Z 和 CTRL-Y,它们是 UNDO 和 REDO

  14. 里维奥 说:

    可能会发生 Ollama 更新后不再工作的情况, 放置影响某些 C DLL 的错误.

    要修复它,请下载此文件并安装 “Runtime del C”

    https://www.theremino.com/files/VC_redist.x64.exe.zip

    您必须从 ZIP 中提取它并运行它, 这需要几十秒.

    如果您愿意,还可以搜索 “VC_redist.x64.exe” 在 Google 上,然后从 Microsoft 站点下载.

  15. 马可 · 说:

    你好 Livio,
    一如既往,感谢您的出色工作.
    我用 Ollama 做了一些小实验, 特别是 Gemma 模型 2:9b.

    来自简短对话的摘要, 我在下面附上, 我想你可以猜到这些系统是如何面向与传感器/执行器世界交互的. 如果我不向前跑得太远,那么您可以使用 LLM 来控制传感器/执行器,甚至仅通过语音对话 (我在想 Theremino Voice) 和’ 更正?

  16. 马可 · 说:

    法学硕士:
    您还有其他问题吗?


    如果液压执行器由通过以下类型的字符串发送的命令移动 “发送 nnn” 其中 nnn 是介于 0 和 999, 要将 Actuator 移动一半,我应该将哪个字符串作为命令发送?

    法学硕士:
    将平动电机移动一半, 您应该发送字符串 **SEND 500**.
    这就是为什么:
    * 字符串 “发送” 表示您正在向 Actuator 发送命令.
    * 三个数字 (“nnn”) 表示平动电机的位置, 且为 0 作为起始位置,将 999 作为最大位置.
    * 一半, 该值应为 50% 总行程 (999), 然后 999 / 2 = 500.


    权, 事实上, “nnn” 在 displacement 和 value 本身之间建立线性比例.
    现在我问你, 如果您收到命令 “发送 250” 执行器如何/移动到何处?

    法学硕士:
    如果您收到命令 “发送 250”, 执行器将移动到总行程的四分之一.
    * 请记住 0 是初始位置, 999 最大位置.
    * S = 饱和度 250 表示 25% (250/999) 总行程.
    您还有其他问题吗?


    生成命令以将平动电机移动到其最大行程的四分之三, 我们将定义为 “相当开放” 而在其行程的四分之一处,致动器 “不是很开放”. 将响应限制为生成命令 “相当开放”.

    法学硕士:
    发送 750


    现在将执行器移动到略微打开的位置…

    法学硕士:
    发送 250


    现在将其置于几乎关闭的位置, 只有很少的开放…

    法学硕士:
    发送 10


    很好, 您已接受过适当的培训,可以向执行器发出命令!

    法学硕士:
    我很享受和你一起训练! 我似乎已经学会了如何为液压执行器生成正确的命令.
    如果您需要任何其他练习或帮助进行其他活动, 不要犹豫,打电话给我! 我随时准备学习并发挥作用.
    ——————–

    • 里维奥 说:

      是的,但有一些’ 问题…
      1) 谁第二天忘记了一切.
      2) 对于大多数真正有用的东西来说,这太慢了.
      3) 要教他最简单的事情,你也得浪费很多时间,而且要浪费一点时间’ 不那么简单可以是这样的 “硬头” 你先做.
      4) 等…

      所有可以解决的事情,有些人只是在做这些事情.
      但不幸的是,资源, 我们目前拥有的时间和手段是不够的.
      我仍然不知道该怎么做 “火车” 模型和我所读到的一点也不容易. 我们将不得不学习很多东西,并浪费我们没有的无限时间.

      您过去的方式 “火车” 这不是真正的训练, 你只是把几句话的上下文放在一起,得到一些答案. 它只能用于超简单且效率低下的事情. 从某种意义上说,如果你稍微复杂一点’ 需要, 然后就很难控制一切并真正让他做你想做的事,而且他的反应也会变得非常缓慢.

      无论如何,是的, 我同意你的看法, 你展示的或多或少是需要做的事情. 但我担心让它真的可以控制某些东西, 这比你们的试炼看起来要难得多.

      如果你有时间和愿望,你可以探索并尝试了解… 可能从这些页面开始可能会有所帮助:
      https://github.com/ollama/ollama/blob/main/docs/api.md

      目前我还不太明白, 也是因为我正在完成一些重要的申请,而我的时间很少.

  17. 马可 · R 说:

    感谢 Livio 的澄清, 事实上,这些系统首先相对于它们占用的资源来说仍然太慢. 可能是由于计算时间和他们必须处理的大量数据, 范围从朱利叶斯·凯撒 (Julius Caesar) 到物理问题.
    我只能想象它通过一个或多个传感器的反馈来处理执行器的速度有多慢….
    谢谢你的链接, 即使我害怕我没有那么多的计算机知识.

    • 里维奥 说:

      不幸的是,这不仅仅是关于计算机知识,而是关于 AI 技术的专业知识. 即使是那些咀嚼计算机科学的人 1970 像我一样, 当我们开始谈论 LLM 嵌入时,我们了解很少或一无所知.

      一点儿’ 到时候我们会明白, 但是,虽然有些人几十年来什么都没做, 我们必然要慢得多, 因为我们处理许多不同的事情, 电子学, 传感器, 软件, 化学, 音乐等…

  18. theremino 说:

    小改进...
    https://www.theremino.com/files/Theremino_Ollama_V1.8.zip

    他们只是实验… 这需要一段时间’ 完成真正的Theremino_LLM

  19. 里维奥 说:

    小改进...
    https://www.theremino.com/files/Theremino_Ollama_V1.9.zip

    Interessanti gli LLMUncensored” !!!

    Provate sempre i modelli 2B, altrimenti quelli più grandi sarebbero troppo lenti sui computer normali, senza Octucore, NPU, Cuda ecc

    Sono solo esperimenti… ci vorrà un po’ per finire il vero Theremino_LLM

留下回复 里维奥 取消回复

您的电子邮件地址将不会发布.