avatar-decorate
获赞
5199
粉丝
215
关注
230
看过 TA
701
西昌学院
2011
golang
IP属地:北京
微信公众号:福大大架构师每日一题
私信
关注
ollama v0.18.0正式发布:云模型无缝直连、Claude Code自动压缩窗口、错误处理与交互体验全面升级1. 云模型全面接入:• 现在无需通过 ollama pull 下载云模型,只需在模型名称后添加 :cloud 标签,即可自动连接云端模型。• 系统在调用 ollama run  时,会自动拉取云模型的“stub”信息,完成兼容性适配。• 改进了模型源的传播逻辑,在创建云模型衍生版本时维护明确的来源标识。2. Claude代码增强:• 新增支持设置 Compaction Window(压缩窗口)功能,针对 Claude Code 云模型自动设定窗口大小以优化上下文处理。• 对 Claude 本地与云模型环境变量装载进行了精细优化,确保自动选择正确模型与上下文。3. OpenAI兼容API增强:• 文档新增了 reasoning_effort 参数支持说明,可在推理型模型中控制推理强度("high"、"medium"、"low"、"none")。• 完善了推理/thinking控制字段,实现对推理模型的细粒度策略控制。4. 命令行功能升级:• 改进模型排序及启动行为,优化 TUI(终端交互界面)中的选项逻辑。• “--yes” 无头模式强化:在不交互的环境中可自动批准并拉取缺失模型。• 新增云模型检测与自动补全机制,使显式云模型在列表中同样被 ollama ls 正确识别。5. 中间件与服务器改进:• middleware 层在处理非 JSON 错误时可自动回退字节错误提示,避免解析错误干扰。• 新增 zstd 解压支持,在云代理中间件可自动解码压缩请求体,实现高效传输。• 限制最大解压后体积(20MB),防止超大请求导致资源消耗。• 改进云代理 passthrough 流程,检测 Content-Encoding: zstd 并清除标头后运行。
0 点赞 评论 收藏
分享
openclaw v2026.3.11正式发布:安全强化、内核优化与跨平台体验全面升级v2026.3.11引入了跨平台与多体系的广泛优化:(1)模型与OpenRouter扩展• 新增临时模型 Hunter Alpha 与 Healer Alpha,在OpenRouter的内置目录中可直接调用,这两款隐形模型在短期免费开放期间可直接体验。(2)iOS端体验升级• 主页画布新增欢迎屏幕与实时代理概览,能在连接、重新连接或前台恢复时自动刷新。• 将浮动控制替换为底部停靠工具栏,使整体结构更加贴合小屏手机适配。同时,聊天内容将直接打开至主会话而非独立ios虚拟会话。• 新增TestFlight本地Beta版本发布流程,支持Fastlane归档与上传,修复watch-app归档问题,并启用规范化Beta包ID。(3)macOS端改进• 聊天UI新增模型选择器,显式思考等级选项可在重启后持久保存。• 会话模型同步机制加强,避免提供者感知模型漂移。• 新的入门检测机制可识别需要共享认证令牌的远程网关,并给出定位说明。• LaunchAgent安装路径安全加固,防止组/全局可写导致的启动失败。• 改进自恢复重启机制,LaunchAgent在显式重启中保持注册状态,避免卸载服务时丢失配置。(4)Onboarding与集成扩展• Ollama支持本地与云端+本地两种模式,可浏览完成注册,通过浏览器登录与精选模型建议,避免冗余的本地下载。• OpenCode新增Go语言提供者,并与Zen共享设置流程与文档,同时保持运行时层面分离,实现单一密钥跨语言支持。(5)Memory模块增强• 支持可选图像与音频索引,采用Gemini gemini-embedding-2-preview模型,增加严格回退机制与基于作用域的重索引。• Memory Gemini新增输出维度可配功能,维度变化时自动重新索引。(6)Discord功能优化• 自动创建线程时可配置autoArchiveDuration参数,支持1小时、1天、3天或1周四种归档时间。(7)执行与命令行增强• 子命令环境增加OPENCLAW_CLI标识,用于区分子进程来源。• 归档与提取机制强化,针对tar与外部安装过程增加安全展开策略,预防符号链接逃逸。• CLI的技能列表JSON输出剥离ANSI与控制符,确保JSON合法性。• Windows旧式控制台默认ASCII边框,防止乱码。• CLI关闭路径改进,缓存索引管理器在一次性运行结束后及时关闭,避免驻留。(8)Gateway与Git系统增强• Gateway增加内存中窄队列原语node.pending.enqueue与node.pending.drain。• Git运行态忽略.gateway生成的.dev-state,保证仓库清洁。(9)Onboarding与插件体系• 检测共享令牌与配对设备授权区分。• 新增模型认证辅助接口,使插件能够通过标准认证管线解析API密钥。(10)Cron与调度• 新的Cron隔离机制阻止通过非正规agent途径进行通知;提供openclaw doctor --fix脚本迁移旧版Cron存储与元数据。
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
2026年3月TIOBE编程语言排行榜,Go语言排名第16,Rust语言排名14。为什么 TIOBE 指数仍然依赖搜索引擎?三月头条:为什么 TIOBE 指数仍然依赖搜索引擎由于二月是短月,TIOBE 指数并未发生太大变化,现在是讨论该指数自身的一个元问题的好时机。最近这个问题多次被提及:TIOBE 指数为什么仍基于搜索引擎的命中次数?如今直接询问大型语言模型(LLM)哪些编程语言最受欢迎,难道不是更好吗?答案是否定的。TIOBE 指数衡量的是互联网上与特定编程语言相关的页面数量。大型语言模型最终也依赖相同的来源——它们的训练和分析基于的正是这些网页。因此,从本质上讲,两者并无实质性区别。上个月 TIOBE 指数完全没变化吗?也不是。SQL 与 R 在前十名中互换了位置。另外,Swift 重新进入前 20 名,取代了 Kotlin。指数更靠后的位置上,Ruby 已接近跌出前 30 名。TIOBE 编程社区指数用于指示编程语言的流行程度。该指数每月更新一次。评级基于全球熟练工程师数量、课程和第三方供应商。用于计算评分的流行网站包括 Google、Amazon、Wikipedia、Bing 以及 20 多个其他网站。需要注意的是,TIOBE 指数并不反映哪种编程语言最好,也不是衡量用哪种语言编写代码行数最多。该指数可用于检查你的编程技能是否仍然与时俱进,或在开始构建新的软件系统时就应采用哪种编程语言做出战略决策。
0 点赞 评论 收藏
分享
rust 1.94.0 正式发布:稳定性与性能再升级,RISC-V 支持增强、Cargo 配置更灵活、引入29项稳定API一、语言层面更新Rust 1.94.0 在语言行为和编译检查层面进行了多项优化与增强。以下五项更新是重点:1. Impls 与 impl 项继承 dead_code lint 级别在过去版本中,某些 impl 块未能继承对应 trait 或 trait 项的 dead_code lint 配置,可能导致部分代码未被标记。现在,impls 和 impl items 将自动继承相应 trait 项的 dead_code lint 级别,使得 lint 行为更加一致,减少隐藏的未使用代码。2. 稳定化了 29 项 RISC-V 目标特性Rust 对 RISC-V 平台的支持进一步强化,这次新增并稳定了 29 项目标特性,包括 RVA22U64 和 RVA23U64 配置的大部分内容。此举显著提升了 Rust 在嵌入式和处理器架构层面的适配能力,为 RISC-V 开发者提供更完善的编译支持。3. 新增 warn-by-default unused_visibilities lint该 lint 专门用于检查常量声明中不必要的可见性修饰符。在 Rust 1.94.0 中,当为常量添加无效或无用的可见性时,会触发默认警告。这样可以帮助开发者保持更清晰的代码结构,避免滥用 visibility。4. 更新到 Unicode 17Rust 的字符与字符串处理逻辑现在全面兼容 Unicode 17 版本,提升了跨语言字符处理的一致性。这一更新使得文本相关的操作在国际化场景下更加可靠。5. 避免闭包中的错误生命周期推断编译器在闭包处理方面进行了关键修复,避免在复杂闭包捕获场景下出现错误的生命周期判断。之前某些闭包可能会提示错误的生命周期约束,现在该问题得到了有效规避。
0 点赞 评论 收藏
分享
agno v2.5.6发布:GitHub App认证、HEIC图片上传、Team Task全面增强,全新强势升级详解!1. GitHub App Authentication for Knowledge Sources在v2.5.6版本中,Agno正式支持以GitHub App的方式进行认证。过去开发者只能使用Personal Access Token(个人访问令牌),现在通过新增 app_id、installation_id、private_key 等参数,Agno可作为GitHub App安全地访问GitHub资源。该功能具备以下特点:• 支持GitHub App身份认证,允许更安全、可控的访问。• 内置线程安全的token缓存机制,保证在高并发下的安全性能。• 同时支持同步与异步版本的认证操作,满足不同的开发模式需求。这一变更代表着Agno在知识源管理方面的安全性进一步提升,为开发者实现Git数据整合提供了更灵活的方案。2. 文件上传:支持HEIC和HEIF格式在当前应用中,HEIC与HEIF图片格式使用率大幅提升。Agno v2.5.6紧跟时代步伐,在文件上传接口中新增对image/heic和image/heif的支持。这意味着:• 用户或应用能够直接上传iPhone和现代相机生成的高质量图片文件,避免因格式不兼容而出错。• 对图像处理的扩展性更强,为未来图像识别、内容检索等工具扩展提供了基础。3. Approvals机制增强新增了批准状态接口(approval status endpoint)及管理员控制的“继续运行”审批机制(admin-gated continue run enforcement)。该功能主要作用在多用户协作场景中:• 管理员可控制某个任务是否允许继续运行,从而提高流程安全性。• 增加可查询的审批状态接口,便于系统自动化处理。这一新增功能强化了Agno在团队协作和任务流控制上的治理能力。4. Traces高级过滤DSL在Agent OS模块中,新增了高级过滤DSL(Domain-Specific Language)支持。这项特性让开发者可以使用更灵活的表达式语法来筛选追踪数据(traces),轻松处理复杂的查询与分析需求,为运维监控和性能追踪提供更精确的数据支持。
0 点赞 评论 收藏
分享
ollama v0.17.5正式发布:新增Qwen3.5系列模型,全方位优化GPU/CPU分配、采样惩罚与内存管理机制详解一、版本核心更新概览1. 新增模型系列:Qwen3.5v0.17.5引入了全新的模型系列——Qwen3.5,包括 0.8B、2B、4B 与 9B 四个参数规模版本。这使得开发者能根据硬件资源灵活选择不同性能梯度的模型。值得注意的是,在此次版本中,Qwen3.5模型支持 GPU 与 CPU 混合加载模式,同时针对模型“自我重复”问题进行了深度修复。新模型可通过命令重新下载:ollama pull qwen3.5:35b2. GPU & CPU分配相关修复新版本修复了Qwen3.5模型在GPU与CPU拆分运行时的崩溃问题。此前,当模型部分参数映射至CPU后,DeltaNet层或KV缓存命中时容易出现panic,如今通过对线性注意力张量缺失、conv1d权重校验、层级递归验证进行系统修复,显著提升了混合资源下的运行稳定性。二、性能与内存系统全面升级1. Verbose模式新增峰值内存统计ollama run --verbose 现在会显示峰值内存使用情况。新增的参数结构 Metrics 中增加了:• PeakMemory:以GiB或人类可读格式输出峰值内存;• formatPeakMemory()函数:自动判断单位并格式化显示;• Summary()方法中新增内存输出逻辑。这可以帮助开发者在分析模型运行性能时,即时观察峰值占用,便于评估MLX引擎的内存优化效果。2. MLX运行器内存修复与优化MLX runner一系列补丁包括:• 修复了在KV缓存命中时引发panic的问题;• 报告真实内存使用,而非理论分配值;• 增加错误传播机制,通过api.StatusError将pipeline异常上报到客户端;• 严格限制模型上下文长度以防越界;• 优化prompt评估计时逻辑,使计时与计数更精确;• 引入内存峰值复位API mlx_reset_peak_memory()。这一系列操作让MLX在处理大模型时更稳定,也为后续GPU监控功能奠定基础。
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
ollama v0.17.4发布:Qwen 3.5与LFM 2全新登场,稳定工具调用索引机制全面升级!一文读懂最新改动与技术细节一、版本概览与关键更新1. 新模型发布简介在 v0.17.4 中,Ollama官方引入了两个重量级的模型家族:• Qwen 3.5:这一新系列是开源的多模态模型家族,具备出色的实用性与性能表现。它延续了 Qwen 系列的强项,在文本、视觉等不同模态任务中都有极高的表现力,兼具开放性与高效性。• LFM 2:LFM2 是一类混合型模型家族,专为设备端部署(on-device deployment)设计。其重点成员 LFM2-24B-A2B 拥有高达 240亿 参数的规模,在保证模型推理效率的前提下,将架构进行有效扩展,从而实现更高的本地计算性能。这标志着 Ollama 在本地模型与云端模型之间的融合迈出了关键一步——不仅支持更大的参数规模,同时为多模态与本地推理场景提供了优化支持。2. 并行工具调用索引机制升级(Tool Call Indexing)v0.17.4 的核心更新之一是:“Tool call indices will now be included in parallel tool calls”这意味着在进行多工具调用的场景中,每一次工具调用(Tool Call)都会带有独立且稳定的索引(Index)值。这一机制的引入,保证了多线程或流式调用环境下,调用顺序能够明确追踪,不会出现索引错乱的情况。对于需要依赖多工具协同的模型(例如 Qwen3、GLM4.6、GLM4.7 等),该功能的提升显著增强了解析的稳定性与保证测试的一致性。
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务