avatar-decorate
获赞
5196
粉丝
213
关注
228
看过 TA
683
西昌学院
2011
golang
IP属地:北京
微信公众号:福大大架构师每日一题
私信
关注
yolo v8.3.243 发布说明:控制台日志去重、训练遥测增强与部署体验优化1. 控制台 ConsoleLogger 进度条去重与批量刷新这是本次更新中优先级最高的改动。主要表现为:• 抑制训练过程中频繁刷新的进度条输出,仅保留完成信号。• 防止同一个训练阶段重复打印“100%”完成行,例如同一轮 epoch、train、val 或 Class 输出不再多次重复。• 新增按行数或时间批量刷新日志机制,减少控制台刷屏问题。• 日志处理器的清理逻辑更加安全,避免潜在的重复或异常输出。这一改动显著减少了训练日志的噪音,特别适合在 Notebook、CI 或日志被实时转发到外部系统的场景中使用。2. 平台遥测中训练启动事件的元数据增强在训练开始时,上报的运行信息更加完整。新增内容包括:• 环境信息采集:操作系统、Python 版本、主机名、CPU 和 GPU 信息。• 运行上下文信息:启动命令。• 代码版本信息:Git 仓库、分支和提交记录(如可用)。• 模型相关信息:参数量、GFLOPs、类别数量。这些信息会一起作为训练启动事件的数据载荷,用于平台或 HUB 风格的训练跟踪。这大幅提升了实验的可追溯性和复现能力,便于在不同机器、容器或代码分支之间对比训练结果。3. 检查点上传时机调整检查点上传的计时逻辑进行了优化:• 上传计时器在训练开始时初始化。• 第一次检查点上传会延迟大约 15 分钟执行。这样可以避免训练刚开始就触发上传操作,减少早期无意义的带宽消耗,同时避免上传过早、尚不稳定的检查点文件。4. 推荐使用 Headless 版本的安装文档提升文档中明确推荐在服务器、CI 和 Docker 等无界面环境下,使用 headless 版本的 OpenCV:• 建议通过 pip 安装 ultralytics-opencv-headless。这一调整可以有效避免由于缺少图形相关依赖而导致的 libGL 错误,使在纯算力环境中的部署更加顺畅。5. Docker GPU 运行说明更加清晰Docker 使用 CUDA 和 GPU 的示例命令得到了补充和澄清:• 示例中明确加入 --runtime=nvidia 参数。这可以减少用户在容器中遇到“无法识别 GPU”或“GPU 不可用”等常见问题。6. 可选择跳过自动依赖检查新增一个环境变量,用于在受控环境中关闭依赖检查和自动安装逻辑:• 设置 ULTRALYTICS_SKIP_REQUIREMENTS_CHECKS=1 可直接跳过相关检查。该功能非常适合企业级环境、封闭网络或对依赖版本有严格控制的场景。7. 一些小的修正与文档更新• 修正了 Pose 相关损失函数注释中的顺序说明错误。• YOLO-World 文档中新增社区使用提示:在某些情况下,添加一个空字符串作为背景类别,可能会带来更好的效果。
0 点赞 评论 收藏
分享
eino v0.7.15 版本更新详解:ChatModel Agent 中间件与 Agent 名称修正1. adk 修复:在未配置工具的情况下支持 after chatmodel在此前版本中,当 ChatModelAgent 未配置工具时,AfterChatModel 中间件不会被正确执行。本次更新通过调整 ChatModelAgent 的链式执行逻辑,使得 AfterChatModel 在没有工具配置的情况下也能够正常触发。具体改动体现在 chatmodel.go 文件中,对 buildRunFunc 方法进行了修改:• 在构建 Chain 时引入本地状态生成函数,用于初始化 ChatModelAgentState• 在 ChatModel 执行前,通过 StatePreHandler 更新并处理 state.Messages,同时顺序执行 BeforeChatModel 中间件• 在 ChatModel 执行后,通过 StatePostHandler 将模型输出追加到 state.Messages,并顺序执行 AfterChatModel 中间件• 保证 BeforeChatModel 和 AfterChatModel 都围绕 ChatModel 的执行过程正确生效通过这一调整,即使未配置工具调用能力,ChatModel 的前置和后置中间件也能按预期执行。2. adk 修复:agent 名称设置修正在 flow.go 中,对 agent 运行时的 AgentName 和 RunPath 设置逻辑进行了修正。更新后的逻辑说明如下:• 始终使用当前 agent 的名称作为 event.AgentName• 当 event.RunPath 已存在时,将框架生成的 RunPath 与自定义 RunPath 合并,避免重复或错误的路径段• 当 event.RunPath 不存在时,直接使用当前运行上下文中的 RunPath• 保证事件记录策略中,RunPath 能够准确匹配当前 agent 的执行路径,避免因路径重复导致的事件不记录问题该修复解决了在运行流式 agent 时,AgentName 和 RunPath 可能配置错误的问题。
0 点赞 评论 收藏
分享
ragflow v0.23.0 全面发布:Memory、Agent、Ingestion Pipeline、数据源与模型支持重大升级详解新特性1. 内存• 实现了用于管理记忆的“内存”接口。• 支持通过“检索”或“消息”组件配置上下文。2. 智能体• 通过重构底层架构提升了“智能体”组件的性能。• “智能体”组件现在可以输出结构化数据,供下游组件使用。• 支持使用网络钩子来触发智能体执行。• 支持语音输入/输出。• 支持为每个“智能体”组件配置多个“检索”组件。3. 文档处理流水线• 支持在“转换器”组件中提取文档目录,以提升长上下文检索增强生成性能。4. 数据集• 支持为图像和表格配置上下文窗口。• 引入了父子分块策略。• 支持在文件解析过程中自动生成元数据。• 聊天:支持语音输入。功能改进• 将RAGFlow的文档引擎Infinity升级至v0.6.15版本(向后兼容)。• 数据源支持新增:• Google Cloud Storage• Gmail• Dropbox• WebDAV• Airtable• 新增模型支持:• GPT-5.2• GPT-5.2 Pro• GPT-5.1• GPT-5.1 Instant• Claude Opus 4.5• MiniMax M2• GLM-4.7• 新增MinerU配置界面。• 新增AI Badgr(模型提供商)。
0 点赞 评论 收藏
分享
dify 1.11.2 正式发布:向量数据库、安全增强、测试优化与多语言支持全面升级1. InterSystems IRIS向量数据库支持Dify 1.11.2新增了对InterSystems IRIS向量数据库的支持,这一更新显著增强了平台的数据处理能力。InterSystems IRIS是一款高性能的多模型数据库,支持向量存储和检索,特别适用于AI应用中的语义搜索、推荐系统等场景。使用场景:• 企业级AI应用需要高效存储和检索大规模向量数据时• 需要与现有InterSystems生态系统集成的AI项目• 构建基于向量检索的智能问答、文档搜索等应用InterSystems IRIS的向量搜索功能使开发人员能够更轻松地创建使用生成式人工智能的应用程序,完成各种用例的复杂任务,并根据专有数据提供即时响应。这项技术能够通过矢量嵌入对数据平台进行搜索,从而增强软件在自然语言处理、文本和图像分析相关任务中的功能。2. 阿里云SLS集成本次更新引入了阿里云Simple Log Service(SLS)集成,允许将工作流执行日志存储到阿里云SLS中。这一特性为阿里云生态用户提供了统一的日志管理解决方案,方便开发者对AI应用的执行过程进行监控和审计。使用场景:• 基于阿里云部署的Dify应用需要集中管理工作流日志• 企业需要符合监管要求的日志存储和审计机制• 需要实现日志的集中收集、查询和分析通过阿里云SLS集成,用户可以轻松实现日志的实时采集、存储、查询和分析,同时支持多种数据源接入和丰富的查询分析功能,为应用监控和故障排查提供有力支持。3. 突尼斯阿拉伯语支持Dify的国际化能力进一步提升,新增了突尼斯阿拉伯语(ar-TN)翻译。这一更新帮助Dify更好地服务于北非地区的开发者和用户,推进了平台的全球化布局。突尼斯阿拉伯语是阿拉伯语的一种方言变体,主要在突尼斯及其周边地区使用。这一语言支持的加入,使得Dify能够更好地服务于北非地区的企业和开发者,进一步拓展了平台在全球市场的覆盖范围。
投递阿里巴巴等公司10个岗位
0 点赞 评论 收藏
分享
go-zero v1.9.4 版本发布详解:云原生适配升级与稳定性性能全面提升一、版本概览go-zero v1.9.4 包含如下整体信息:• 发布时间:2025 年 12 月 24 日• 提交数量:24• 变更文件数:39• 覆盖模块:zrpc、配置中心、日志系统、定时器、服务发现、Redis 客户端封装、文档与依赖管理等整体更新节奏清晰,从 11 月中下旬开始逐步修复和增强功能,在 12 月下旬集中完成核心问题修复并发布稳定版本。二、新特性详解1、Kubernetes EndpointSlice 支持在本次版本中,zrpc 的 Kubernetes 服务解析器完成了一次重要升级,从已被 Kubernetes 标记为废弃的 Endpoints API 迁移至 EndpointSlice API。Endpoints API 在服务数量和实例规模较小时可以正常工作,但在大规模集群中容易出现性能瓶颈,并且维护成本较高。EndpointSlice API 是 Kubernetes 官方为解决这些问题而提供的新机制,它通过更细粒度的数据切分方式提升了服务发现的可扩展性和性能表现。此次迁移意味着 go-zero 在 Kubernetes 场景下的服务发现能力更加符合当前和未来的云原生标准,在高并发、高实例数量的微服务部署环境中能够更加稳定地运行,同时也降低了因 API 过时带来的潜在风险。2、Redis GETEX 命令支持v1.9.4 新增了对 Redis GETEX 命令的支持。GETEX 是 Redis 提供的一条复合型命令,支持在获取键值的同时设置或更新过期时间。在实际业务中,开发者常常需要在读取缓存数据后顺便刷新过期时间,以延长热点数据的生命周期。传统做法通常需要两次命令调用,既增加了网络开销,也存在并发一致性问题。GETEX 命令通过原子操作的方式解决了这一问题。go-zero 对该命令的封装,使得在框架内使用 Redis 进行缓存管理时更加简洁、高效,也更符合高并发微服务架构对性能和一致性的要求。三、日志系统改进日志模块在 v1.9.4 中得到了多项修复和优化,主要集中在以下几个方面:首先,修复了 levelSevere 日志级别在输出时缺少颜色标识的问题。由于不同日志级别往往用于区分严重程度,颜色缺失会影响问题排查时的直观性。本次修复使日志输出更加清晰,有助于在终端和日志系统中快速定位关键问题。其次,修复了测试日志中与时间调度相关的不一致问题。此前在某些测试场景下,日志时间与调度次数存在不匹配的情况,可能导致测试结果不稳定。本次修复提升了日志测试的准确性和可预期性,为持续集成和回归测试提供了更可靠的基础。四、Timing Wheel 定时器优化时间轮是 go-zero 中用于定时任务调度的重要组件。在 v1.9.4 中,对该模块进行了针对性的修正和整理。本次更新补充了缺失的 Wait 调用,避免在特定条件下出现等待不充分或资源提前释放的问题。同时对相关代码结构进行了优化,使逻辑更加清晰,降低后续维护和排查问题的成本。这些调整虽然不会直接改变对外接口,但对于保证定时任务在高并发和复杂调度场景下的稳定运行具有重要意义。五、服务发现机制增强在基于 etcd 的服务发现模块中,本次版本引入了重试冷却机制。在实际运行过程中,当认证信息异常或权限配置错误时,客户端可能会频繁尝试重新连接和认证。如果缺乏有效的限制机制,这种行为可能导致 CPU 和磁盘 IO 被大量占用,进而影响整个系统的稳定性。v1.9.4 通过增加重试冷却策略,在认证错误场景下对重试行为进行限制,从机制层面防止资源被无意义地消耗。这一改进提升了服务发现组件在异常场景下的自我保护能力。六、配置中心修复与性能优化配置中心是 go-zero 微服务体系中非常关键的基础组件。本次版本修复了配置更新过程中出现的错误值通知问题。在此前版本中,部分场景下配置变更后下发的值与实际配置内容不一致,可能导致服务使用了错误的运行参数。v1.9.4 对这一问题进行了修复,确保配置更新通知的准确性和一致性。同时还针对配置获取过程中的逻辑进行了性能优化,减少不必要的计算开销,在配置项较多或频繁访问的场景中能够带来更好的性能表现。七、RPC 指标与拦截器修正在 zrpc 的统计拦截器中,本次版本修复了慢调用阈值优先级处理不正确的问题。慢调用统计是性能分析和问题定位的重要依据,如果阈值判断逻辑存在问题,可能会导致指标失真,影响监控和告警系统的准确性。修复之后,慢调用的判断逻辑更加符合预期,有助于运维和开发人员更准确地识别性能瓶颈。八、性能与代码质量优化除了上述功能性修复之外,v1.9.4 还包含多项细节层面的优化:• 在数据映射处理中,通过更高效的字符串比较方式优化了布尔值解析性能• 对部分代码进行了重构,提升整体可读性和可维护性• 修复并统一了多处注释中的拼写和语法问题,提升源码质量• 对文档结构进行了简化和整理,在保持原有结构的前提下提高可读性这些改动虽然相对细节,但从长期来看,有助于项目的持续演进和社区维护。九、依赖与生态更新v1.9.4 同步升级了多项第三方依赖,包括 Redis 客户端、MongoDB 驱动、命令行工具库以及部分构建和自动化相关组件。依赖升级能够及时引入上游库的 bug 修复和性能改进,同时避免因依赖过旧而产生的兼容性或安全风险。这些调整体现了对框架长期稳定运行的重视。十、版本总结整体来看,go-zero v1.9.4 是一次偏向工程质量和云原生适配能力提升的版本更新。通过引入 Kubernetes EndpointSlice 支持,框架在容器编排环境中的前瞻性进一步增强;通过补充 Redis GETEX 命令,缓存操作更加高效和安全;而围绕日志、定时器、服务发现、配置中心和 RPC 指标的一系列修复,则显著提升了在复杂生产环境中的稳定性和可控性。
0 点赞 评论 收藏
分享
agno v2.3.21版本发布详解:AgentOS全面支持Agent As Judge评测与多项稳定性增强1. 功能概述“Agent as Judge”是一种先进的评估范式,它使用一个专门的智能体(Judge Agent)来评估另一个智能体(或团队)在给定任务上的输出质量。这通常用于衡量响应的准确性、相关性、完整性等主观性较强的指标。与传统的基于规则或简单字符串匹配的评估方式相比,Agent as Judge能够利用大语言模型的理解能力,进行更接近人类判断的评估。2. 集成详情在v2.3.21之前,开发者可能已经能够在Agno框架内创建Agent as Judge评估逻辑,但管理和运行这些评估可能不够便捷。本次更新后,这一功能在AgentOS中获得了完整的官方支持:• 配置与触发:用户现在可以直接在AgentOS的Evals(评估)页面中,配置新的Agent as Judge评估任务并触发其运行。这为评估工作流提供了统一的图形化界面。• 统一管理:Agent as Judge评估的运行记录将与现有的准确性、性能、可靠性等评估结果一同,集中展示在Evals页面中。这实现了对所有类型评估的集中监控和管理,极大地提升了操作效率。• API端点增强:对应的GET API端点也已更新,现在可以返回Agent as Judge评估的相关数据,确保了控制平面与后端服务的数据一致性。
0 点赞 评论 收藏
分享
yolo v8.3.241:macOS CoreML 推理加速、ExecuTorch 导出稳定性提升与边缘硬件支持扩展一、版本概述yolo v8.3.241 是一个以后端性能优化与兼容性增强为核心的版本更新,重点围绕 macOS 平台的 ONNX Runtime 推理加速、ExecuTorch 导出的稳定性、边缘硬件支持扩展以及可视化与文档体系的完善展开。该版本在不改变现有 CUDA 行为的前提下,为 Apple 硬件用户和嵌入式部署场景带来了明显收益。二、macOS 上 ONNX Runtime 的 CoreML 优先策略在 macOS 环境中,当使用 device="mps" 进行推理时,yolo v8.3.241 现在会优先使用 CoreML 执行提供器,而不是回退到 CPU。新的执行提供器选择顺序为:CUDA > CoreML(MPS) > CPU同时,日志输出更加清晰,能够明确提示当前实际使用的执行提供器,方便排查和性能分析。此外,IO Binding 现在仅在被支持的情况下使用(例如 CUDA 场景),避免了在 CoreML 执行时可能引发的兼容性问题。在实际应用中,这一改动可显著提升 macOS 上的推理性能,在部分测试场景中,单次推理耗时可从约 20 毫秒降低至 9 毫秒左右,接近 2 倍性能提升。三、ExecuTorch 导出稳定性改进针对 ExecuTorch 导出过程中偶发的失败问题,本版本进行了多项修复与优化:1. 在导出路径中对 NumPy 版本进行了限制,固定为不高于 2.3.5,以规避新版本 NumPy 与 CoreML 工具链之间的已知不兼容问题。2. 清理了导出流程中冗余的 torch 导入,使导出逻辑更加简洁。这些调整显著降低了在 CoreML 与移动端部署场景中出现“无法解释的导出失败”概率,使 ExecuTorch 的使用体验更加稳定可靠。四、Rockchip 硬件支持扩展yolo v8.3.241 新增对 Rockchip RV1126B 芯片的支持,并在代码与文档中明确标注该处理器为受支持目标。这意味着用户可以更直接地将 Ultralytics 模型导出并部署到 RV1126B 平台,无需额外的自定义补丁或修改配置,从而拓展了在边缘计算设备上的应用范围。五、2 通道图像可视化支持增强在可视化方面,Annotator 现已支持 2 通道的 numpy 图像数据。当输入为 2 通道图像时,会在绘制与保存之前自动转换为 3 通道格式,确保标注流程正常运行。这一改进使得非标准图像数据(如光谱数据或自定义传感器输入)在推理与可视化环节中更加顺畅,与 1 通道、3 通道以及多光谱数据的支持保持一致。六、TensorRT 与 TensorFlow 后端清理本次更新对推理后端相关代码进行了进一步梳理:1. TensorFlow SavedModel 的加载路径统一使用标准的加载方式,逻辑更加清晰。2. TensorRT 引擎解析过程进行了重构,更好地处理不同 TensorRT 版本下的动态形状与数据类型差异。这些改动提升了不同版本环境下后端行为的一致性与可维护性。七、文档与使用示例优化文档层面也进行了多项同步更新:1. SAM 3 相关示例修正了保存参数的使用方式,明确应在初始化阶段进行配置。2. Sony IMX500 相关示例代码进行了整理与排版优化。3. 自动标注、解决方案参数、跟踪与可视化参数、验证参数等文档描述更加准确、易读。4. 文档站点的工具与组件进行了版本更新,整体使用体验更加顺畅。八、版本总结yolo v8.3.241 是一次以性能与稳定性为导向的重要更新。它在 macOS 平台显著提升了 ONNX Runtime 推理速度,在移动与嵌入式场景中增强了 ExecuTorch 导出的可靠性,同时扩展了对边缘硬件和特殊图像数据格式的支持。配合后端清理和文档改进,该版本在训练、推理与部署的整体体验上更加成熟、可控,适合希望在多平台环境中稳定使用 YOLO 的用户升级采用。
0 点赞 评论 收藏
分享
helm v4.0.4 最新发布:基于 Go CVE 安全修复的补丁版本说明helm v4.0.4 已正式发布,这是一个以安全修复为目的的补丁版本更新。该版本主要针对之前版本中所使用的 Go 工具链存在的 CVE 安全问题进行修复,对 helm v4.0.2 版本进行了重新构建,并使用了最新的 Go 补丁版本。官方明确建议所有用户尽快升级至该版本,以避免潜在的安全风险。需要注意的是,v4.0.3 版本由于构建失败被跳过,因此本次 v4.0.4 是在 v4.0.2 基础上的直接安全补丁升级。一、版本更新背景本次发布属于安全补丁版本,核心目标是修复 Go 语言相关的 CVE 漏洞。通过重新编译 helm v4.0.2,并引入最新的 Go 工具链补丁,确保 helm 在安全性方面满足当前的使用要求。功能和行为层面并无额外变更,适合作为稳定升级版本直接替换现有部署。二、安装包与平台支持helm v4.0.4 提供了多个平台和架构的预编译二进制文件,覆盖了主流的服务器和开发环境,包括:• MacOS:amd64、arm64• Linux:amd64、arm、arm64、i386、ppc64le、s390x、riscv64、loong64• Windows:amd64、arm64每个安装包均提供了对应的校验值,用于校验下载文件的完整性和一致性。其中 Linux loong64 架构的校验信息在当前时间点存在未找到的问题,其余平台均可正常校验。三、安装与升级说明用户可直接下载 helm v4.0.4 对应平台的二进制文件进行安装或替换升级。同时也可以通过官方提供的安装脚本,在支持 bash 的系统上完成安装。针对已有 helm 用户,升级操作不会引入额外的配置变更,属于安全补丁级别更新,升级风险较低。更多详细的安装步骤和升级说明,可参考官方安装指南和快速入门文档。四、版本签名与安全验证helm v4.0.4 发布包已进行数字签名,用户可以通过 gpg 验证下载文件的真实性和完整性。官方提供了对应的签名文件,建议在生产环境中严格执行校验流程,以确保软件来源可信。五、后续版本规划官方已明确后续版本发布时间计划:• 下一个补丁版本 3.19.5 和 4.0.5 预计将在 2026 年 1 月 14 日发布• 下一个次要版本 3.20.0 和 4.1.0 预计将在 2026 年 1 月 21 日发布六、变更摘要本次 helm v4.0.4 的主要变更内容包括:• 更新并修复 v4.0.2 中涉及的 CVE 依赖• 使用最新的 Go 补丁版本重新构建发布包总结来看,helm v4.0.4 是一个专注于安全性的补丁版本,不包含功能性增强或行为变更。对于当前使用 helm v4.x 的用户,建议尽快完成升级,以确保集群管理工具的安全和稳定运行。
0 点赞 评论 收藏
分享
nats v2.12.3 正式发布:JetStream、Raft 与 MQTT 稳定性和性能的全面提升nats-server v2.12.3 版本已于 2025 年 12 月 17 日正式发布。本次版本在保持与 2.11.x 系列兼容的前提下,对底层依赖、JetStream、Raft 共识机制、WebSocket 以及 MQTT 功能进行了大量优化和问题修复,是一次以稳定性、性能和健壮性为核心的维护型升级。以下内容基于官方更新日志,对 v2.12.3 的改动进行详细说明。一、版本与基础环境更新1. Go 版本本次发布将构建所使用的 Go 版本升级至 1.25.5,为整体性能与运行时稳定性提供了更加坚实的基础。2. 依赖库升级多个关键依赖完成升级,包括:• go-tpm 升级至 v0.9.7• nkeys 升级至 v0.4.12• golang.org/x/crypto 分别升级至 v0.45.0 和 v0.46.0• golang.org/x/sys 升级至 v0.39.0• klauspost/compress 升级至 v1.18.2• antithesis-sdk-go 升级至 v0.5.0 的默认 no-op 版本这些依赖更新主要集中在安全性、压缩性能以及系统调用兼容性方面。二、新增功能1. WebSocket 配置增强在 WebSocket 配置块中新增了专用的心跳参数 ping_internal。该配置允许针对 WebSocket 连接单独设置 Ping 发送间隔,有助于更精确地控制连接保活策略,适合高并发或弱网络环境下使用。三、功能改进(一)JetStream 改进1. 更快的源序列扫描在设置带有 subject 过滤条件的 source 时,服务器对最后一条源消息序列的扫描速度显著提升,减少了流初始化和恢复过程中的等待时间。2. Meta Layer 启动行为优化在服务器启动时,Meta Layer 现在会对恢复操作进行分阶段处理并进行去重,而不再出现先快速应用再撤销冲突分配的情况,从而降低启动阶段的不稳定风险。3. Interest-based Stream 性能提升当 interest-based stream 存在较大兴趣空洞时,消费者兴趣检查逻辑得到了显著优化,大幅提高性能。(二)MQTT 改进1. 保留消息跨账号支持增强当保留消息来源于不同账号并且带有 subject 转换时,现在可以正常工作,解决了此前在复杂账号结构下的使用限制。四、问题修复(一)通用问题修复1. WebSocket 解压缓冲限制修复了 WebSocket 连接在进行解压时未正确限制缓冲区大小的问题,有效避免潜在的内存风险。(二)JetStream 与 Raft 相关修复这是本次版本中修复内容最为集中的部分,主要集中在一致性、数据安全和集群稳定性上:1. 修复因网关连接中 ACK 回复 subject 变换无效而触发的协议错误问题。2. Meta Layer 仅在达到法定人数后才会响应 peer remove 请求。3. 非终结型全通配符的非法 subject 过滤器不再产生异常匹配结果。4. 修复集群模式下创建 Stream 时可能产生的数据竞争问题。5. Raft 不再允许并发执行多个成员变更操作。6. 修复在处理缺失节点或分配信息的快照时可能触发的 panic。7. 在整块消息被 purge 时,subject 跟踪信息和定时消息能够正确更新。8. Raft 在计算法定人数时不再统计已被移除节点的响应。9. 修复 AsyncFlush 在进程暂停后可能导致 filestore 丢失写入的问题。10. Filestore 在更新统计信息前会优先处理磁盘上的消息移除,提高错误处理可靠性。11. Raft 法定人数计数逻辑重构,仅在 Leader 仍属于成员时才隐式计入确认。12. 在处理 peer remove 时立即写入 peer 状态,避免重启后被移除节点意外重新出现。13. DiscardNewPerSubject 保留策略现在由 Leader 在提议阶段统一执行,减少副本间状态不一致的可能。14. Raft 不再允许移除仅剩的最后一个节点。15. 修复 Stream 健康检查中的数据竞争问题。16. 在 compact 或 purge 几乎为空的 Stream 到序列 2 时,能够正确写入 tombstone 用于序列恢复。17. 修复在同时使用 skip sequence 与 compact 时可能导致块偏移错误并引发数据损坏的问题。18. 当 compact 回收空间超过一半时,采用原子写入以避免进程被终止时丢失消息。19. Filestore 查询在遇到缓存错误时会正确使缓存失效。20. 改进消息块加载过程中的错误处理逻辑。21. 新增 Raft 成员操作不再导致多数派被分裂。22. Filestore compaction 不再出现 idx 缓存缺失错误,并能正确调整消息块的高低序列及删除映射。23. 修复在 peer remove 与领导权转移期间,因心跳导致已移除节点被重新接纳的问题。24. 修复在 Stream 快照期间可能发生的潜在数据不同步问题。(三)MQTT 修复1. MQTT 客户端的最大 payload 大小现在能够被正确限制。2. 修复重新加载配置时,在无权限访问保留消息的情况下可能触发的 panic。3. 修复在跨非 JetStream 启用服务器时,JetStream API 请求的账号映射问题。4. QoS0 消息在跨账号 import/export 并带有 subject 映射时能够正确处理。5. 修复服务器重启后因最后序列检查导致加载保留消息失败的问题。6. 修复集群环境下可能导致保留消息损坏的缺陷。7. 对 $MQTT. subscriptions 的权限处理进行了优化,默认隐式允许,仅 deny ACL 仍可进行限制。8. 修复服务器重启后 QoS2 消息无法恢复获取的问题。五、总结nats v2.12.3 是一次以稳定性、性能和一致性为核心目标的重要更新。JetStream 在存储安全、恢复流程和高并发场景下的表现得到显著增强;Raft 在成员变更和法定人数计算方面更加严谨;MQTT 功能在集群和跨账号场景下的可靠性进一步提升。对于正在使用 2.11.x 或 2.12.x 早期版本的用户,该版本非常值得在充分验证后进行升级。
0 点赞 评论 收藏
分享
agno v2.3.18 版本更新详解:Vertex AI 显式凭证支持与数据库路由修复agno 在 2025 年 12 月 20 日正式发布 v2.3.18 版本。本次更新提交数量虽不多,但涵盖了对 Google Vertex AI 使用方式的重要改进,以及对 AgentOS 中数据库迁移路由的一项关键缺陷修复,整体提升了在生产环境和系统重同步场景下的稳定性与可配置性。一、版本基本信息版本号:v2.3.18发布日期:2025 年 12 月 20 日本次发布共包含 3 个提交,涉及 6 个文件变更,新增代码约 730 行,主要集中在模型能力扩展、系统路由修复和测试补充三个方面。二、主要改进内容1. Google Vertex AI 新增显式凭证文件支持在 v2.3.18 中,agno 的 Gemini 模型对 Vertex AI 的认证方式进行了增强,新增了对 google oauth2 凭证对象的直接支持。这意味着在使用 Vertex AI 模式时,不再只依赖环境变量或默认凭证,而可以显式传入一个凭证对象,用于精细化控制生产环境下的认证方式。核心变化点包括:• Gemini 模型新增 credentials 参数,用于接收 Google Cloud 的凭证对象• 当 vertexai 参数为 True 时,如果提供了 credentials,将其直接传入 genai Client• 在非 Vertex AI 模式(即 Google AI Studio 模式)下,即使提供了 credentials,也不会被传递,避免混用认证方式这种设计使得模型在不同运行环境下的行为更加明确,特别适合以下场景:• 多项目、多服务账号并存的生产环境• 容器化或 CI/CD 场景中需要显式加载服务账号 JSON 文件• 不方便或不允许使用全局默认凭证的部署环境官方示例中通过加载服务账号 JSON 文件创建凭证对象,并在初始化 Gemini 模型时传入,从而直接完成 Vertex AI 的身份认证配置。2. Gemini 客户端初始化逻辑完善在 Gemini 模型的 get_client 方法中,对 Client 初始化参数进行了细化处理:• Vertex AI 模式下,project 和 location 参数会被明确设置• 如果 credentials 不为空,则加入 Client 初始化参数• 最终统一过滤掉值为 None 的参数,保证 Client 初始化参数干净且可控同时补充了对应的单元测试,分别验证了以下情况:• Vertex AI 模式下传入 credentials 时,Client 能正确接收• Vertex AI 模式下未传入 credentials 时,不会错误传递该参数• 非 Vertex AI 模式下,即使传入 credentials,也不会传递给 Client这些测试确保了不同模式下 Gemini 客户端行为的一致性和可预期性。三、问题修复:数据库迁移路由无法重建本次版本还修复了一个在 AgentOS 重同步过程中存在的问题。此前在执行 resync 操作时,数据库迁移路由在某些情况下不会被正确重新注册,导致相关接口缺失。在 v2.3.18 中:• 重构了路由重新注册列表• 确保数据库路由在重同步时能够被正确重新 provision• 避免系统在重载配置或恢复状态后出现数据库相关功能不可用的问题这一修复对依赖 AgentOS 进行长期运行和热更新的场景尤为重要。四、测试与版本号更新为了保证上述改动的稳定性,本次更新新增了:• 针对 Gemini 模型凭证逻辑的单元测试• 针对 AgentOS resync 行为的集成测试同时,agno 的项目版本号在 pyproject.toml 中从 2.3.17 正式更新为 2.3.18,与发布版本保持一致。五、小结agno v2.3.18 是一次以稳定性和生产可用性为核心的版本更新:• 在模型层面,为 Vertex AI 提供了更灵活、安全的认证方式• 在系统层面,修复了数据库路由在重同步时的关键缺陷• 在工程层面,通过新增测试确保行为的一致性
0 点赞 评论 收藏
分享
ollama v0.13.5 发布详解:新模型接入、引擎升级与工具能力增强ollama v0.13.5 于 2025 年 12 月 19 日正式发布。本次版本更新规模较大,共合并 10 次提交,涉及约 150 个文件的调整,新增代码 10997 行,删除代码 6838 行。更新内容主要集中在模型支持、引擎能力、工具定义与解析、以及底层推理和运行时优化等方面。一、新模型支持:FunctionGemma 接入在 v0.13.5 中,ollama 正式引入了 Google 的 FunctionGemma 模型,并完成了对应的解析器和渲染器支持。这一更新使 FunctionGemma 能够在 ollama 生态中以原生方式运行,并正确处理函数声明、函数调用和函数响应等结构化内容。同时,SentencePiece 分词解析逻辑也进行了扩展,新增了对多种函数相关控制符号的识别,包括函数声明、函数调用、函数返回以及转义标记等。这保证了 FunctionGemma 在使用 spm 分词器时能够正确区分普通 token 与控制 token。二、BERT 架构模型全面切换至 Ollama 引擎本次更新的一个重要变化是:BERT 架构模型开始统一使用 Ollama 自研引擎运行,而不再依赖旧的执行路径。在架构判定与运行能力上完成了多项调整:• 将 bert 明确列为需要 Ollama Engine 的架构类型• 在特性判断中,bert 开始支持 flash attention• nomic-bert 等相关模型也统一纳入新的引擎判定逻辑这一变化为 BERT 及相关嵌入模型带来了更一致的执行方式,也为后续功能扩展提供了更稳定的基础。三、DeepSeek-V3.1 内置渲染与工具解析能力ollama v0.13.5 针对 DeepSeek-V3.1 增加了内置 renderer 和 tool parsing 能力,使模型在输出结构化结果时可直接由引擎完成解析和渲染。同时,补充并修复了工具定义中嵌套属性无法正确处理的问题,使 DeepSeek 系列模型在使用复杂工具参数结构时更加可靠。此外,还新增并完善了 DeepSeekV3 家族的专用解析器逻辑,进一步提升了该系列模型在 ollama 中的可用性与一致性。四、工具定义系统增强:支持嵌套属性在 API 类型层面,本次更新扩展了 ToolProperty 结构,新增了对 properties 字段的支持,使工具参数能够表达任意层级的嵌套对象结构。这一能力不仅支持简单对象嵌套,还支持深层多级嵌套,并通过新增的单元测试覆盖了以下场景:• 对象属性的嵌套定义• 多层对象中继续包含对象属性• JSON 的反序列化与序列化回环校验这使得 ollama 在函数调用和工具调用场景下,可以完整表达复杂参数定义,提升了与现代大模型工具调用规范的兼容性。五、GGML 与底层推理逻辑更新v0.13.5 更新了 GGML 版本引用,并同步调整了相关构建配置文件。Makefile 中的 GGML 上游提交指针发生变更,保证引擎使用最新的底层实现。在 KV Cache 和因果掩码构建逻辑中,也进行了精简和修复:• 移除了多余的 MaskBatchPadding 和 MaskDType 默认初始化逻辑• 简化了掩码构建过程,仅按当前 batch 大小生成 mask• 修复了 padding mask 计算中的冗余代码这些调整有助于减少不必要的内存占用,并提升推理阶段的稳定性。六、llama.cpp 集成与初始化流程整理在 llama.cpp 对接代码中,本次版本对模型初始化、上下文创建和采样器初始化流程进行了较大幅度的整理:• 引入了基于 impl 的封装结构来管理模型与上下文生命周期• 清理了重复的返回路径和无效代码• 修正了模型加载失败与上下文创建失败时的处理逻辑• 优化了采样器初始化与 logit bias 注入流程同时,在模型元信息解析中,采样参数读取逻辑被去重处理,避免重复判断配置标志,提高了代码可读性和一致性。七、其他杂项与维护性改进除核心功能外,v0.13.5 还包含一系列维护性更新,例如:• 清理不再需要的冗余代码• 调整类型定义,引入 ConfigV2 和 RootFS 相关类型• 回滚 granite-embedding 相关变更• 更新同步规则,补充 llama.cpp 中 mtmd 工具和模型源码的同步路径结语总体来看,ollama v0.13.5 是一次偏向基础能力增强与架构统一的版本更新。它在模型支持范围、工具系统表达能力以及底层执行稳定性方面都迈出了重要一步。对于使用 BERT、DeepSeek、FunctionGemma 等模型的用户而言,这一版本提供了更完善、更一致的运行体验,也为后续功能扩展奠定了坚实基础。
0 点赞 评论 收藏
分享
pion/webrtc v4.1.8 版本更新详解:DTLS 指纹校验、Mux 超时机制与稳定性改进pion/webrtc v4.1.8 版本已正式发布,本次更新主要集中在安全性增强、网络传输可靠性优化以及事件回调行为修正等方面。整体更新内容不多,但每一项都对实际使用场景具有明确价值,下面对本次版本变更逐条进行详细说明。一、新增 DTLS 握手阶段指纹校验选项在 v4.1.8 中,新增了在 DTLS 握手过程中检查指纹的可选能力。DTLS 是 WebRTC 中用于保障数据通道和媒体传输安全的关键协议,而证书指纹校验是确认通信对端身份的重要手段。新增该选项后,开发者可以在 DTLS 握手过程中决定是否对证书指纹进行校验,从而进一步提升连接安全性。这一改动使 pion/webrtc 在安全策略配置方面更加灵活,适用于对安全要求较高的实时通信场景,同时也保持了对原有行为的兼容性。二、为 Mux 实现超时控制机制本次版本为 Mux 实现了 deadlines(超时)机制。Mux 在 pion/webrtc 中承担着多路复用网络数据的职责,如果在网络异常或对端响应缓慢的情况下缺乏超时控制,可能导致阻塞或资源长期占用。加入超时机制后,Mux 在读写操作中可以感知截止时间,当超过设定时间仍未完成操作时及时返回,从而提升系统的健壮性和可控性。这一优化对于高并发连接和复杂网络环境下的 WebRTC 应用尤为重要。三、升级 STUN 依赖模块至 v3.0.2在依赖管理方面,pion/webrtc v4.1.8 将 github.com/pion/stun/v3 模块升级到了 v3.0.2 版本。STUN 是 WebRTC 用于 NAT 穿透的重要协议组件,更新依赖可以带来更好的稳定性和潜在的问题修复。该升级属于内部依赖更新,对外 API 行为没有直接影响,但有助于确保 pion/webrtc 在网络连接建立过程中的可靠性和兼容性。四、关闭后不再触发 OnBufferedAmountLow 回调在本次更新中,还修复了一个事件回调行为问题:当连接已经关闭时,不再触发 OnBufferedAmountLow 回调。此前在特定情况下,即使底层资源已关闭,相关回调仍可能被调用,这容易导致业务层逻辑混乱甚至出现异常处理。修复后,回调触发时机更加符合生命周期预期,开发者可以更加放心地在回调中处理缓冲区相关逻辑,从而提升整体代码健壮性。总结pion/webrtc v4.1.8 虽然不是一次大规模功能更新,但在安全性、网络超时控制、依赖维护以及事件回调一致性方面均进行了有针对性的改进。这些优化有助于提升 WebRTC 应用在真实生产环境中的稳定性与可控性,推荐相关项目逐步升级并验证。
0 点赞 评论 收藏
分享
agno v2.3.13 发布:AgentOS 引入 RBAC 权限控制与安全机制升级2025年12月15日,agno 发布了最新版本 v2.3.13。此次更新在功能与安全层面都有显著提升,尤其是为 AgentOS 引入了 基于角色的访问控制(RBAC) 机制,为系统安全和资源管理带来了更强的灵活性与可扩展性。一、主要新特性1. AgentOS Role-Based Access Control (RBAC)本次版本最大的亮点是 AgentOS 支持了 RBAC 权限控制。通过该机制,可以在自动或手动配置下使用 JWT(JSON Web Token) 进行基于授权范围的访问控制。RBAC 相关功能包括:• 全局 JWT 验证机制所有访问 AgentOS 的流量都需要携带签名的 JWT Token,包含正确的用户权限范围(Scopes),系统会基于该 Token 进行验证与授权。• 按端点授权控制管理员可以根据 JWT Token 中的权限范围,定义各端点(endpoint)的访问策略。是否允许访问某个接口,将根据配置的 Scope 自动判断并执行。• 按代理资源控制RBAC 还允许通过配置特定的资源访问范围(如 agents:my-agent:read)来控制可使用的 Agent。例如:• 调用 POST /agents/my-agent/runs 时可以精确控制哪些用户能运行特定的 Agent。• 调用 GET /agents 或 GET /agents/{id} 时可控制返回哪些 Agent 数据。此机制实现了对用户可 使用与查看哪些 Agent、团队及工作流(Workflow) 的完全控制,安全性与精细化管理能力显著提升。此外,AgentOS UI 将在未来几天内发布兼容版本,以支持该 RBAC 功能的可视化配置与使用。二、JWTMiddleware 类更新说明在 JWTMiddleware 中进行了重要调整:• secret_key 已弃用原有参数仍受支持,但建议使用新的参数 verification_keys=[...] 进行配置,以便支持更安全的密钥验证机制。• 默认算法更新默认算法由 HS256 修改为 RS256,采用非对称加密形式,更适合生产环境中的安全验证需求。这一变化将使 AgentOS 在安全性方面与主流标准接轨,同时简化了分布式系统中多节点验证的部署。三、其他更新与修复• 修复 Redis 中的 Reranker 分配问题。• 重构知识内容新增逻辑,改为同步方式以提升稳定性。• 修复搜索查询在引用(citations)处理上的异常。• 发布稳定版本 2.3.13。四、总结agno v2.3.13 是一次重要的安全与架构升级版本。随着 AgentOS RBAC 的加入,开发者与团队可以实现更细粒度的权限控制、更安全的用户验证流程以及更可控的 Agent 资源管理。
0 点赞 评论 收藏
分享
ollama v0.13.4 发布——全新模型与性能优化详解2025年12月13日,ollama v0.13.4版本预发布,随后于2025年12月16日正式发布。本次更新是一次重要的版本迭代,包含新模型的推出、引擎默认设置的调整、Flash Attention机制的自动化启用,以及一系列对Gemma 3架构模型的修复与增强。以下是详细更新内容。一、新增模型1. Nemotron 3 Nano这是一款全新的开放高效智能代理模型,定义了高性能标准,面向智能代理应用场景。2. Olmo 3 与 Olmo 3.1这一系列开放语言模型旨在推动语言模型研究科学化。其预训练基于 Dolma 3 数据集,后训练使用 Dolci 数据集,代表了更系统化的语言模型训练流程。二、主要更新内容• 默认启用 Ollama 引擎所有剩余模型均默认启用 Ollama 引擎,统一运行环境。• 默认启用 Flash Attention 自动模式模型将自动启用 Flash Attention,以优化注意力计算效率。• 修复 Gemma 3 长上下文处理问题解决了长文本情况下上下文处理异常的问题,使 Gemma 模型更加稳定。• 修复 Gemma 3 QAT 模型导入问题修复了 Gemma 3 架构在量化训练模型导入时可能出现的异常。三、代码更新与文档修订• 在 api/client.go 文件中修正了 Modelfile 的超链接后缀,将.md改为.mdx。• 删除了 macOS 与 Windows 平台中“发送 UI 请求消息”的冗余代码,使应用逻辑更简洁。• cocoa 对话框代码中增强了多文件处理机制,确保缓冲区内存安全。• Windows 文件对话框错误输出格式更准确。• server.go 修改了模型路径检查逻辑,在路径不可用时使用默认路径。• wintray/eventloop.go 改进了底层事件循环的内存安全处理,增加了注释控制。• 文档 docs/api.md 全面更新对 Modelfile.mdx 的链接引用,使说明一致化。• 新增工具文档与示例提取功能:新增目录:.docs/tools/extract-examples包含:提取后可执行:• README.md:介绍如何将 MDX 中的代码示例提取到临时目录运行。• main.go:示例提取脚本,支持自动生成 package.json 与 pyproject.toml 依赖文件。.cdnpm install  # JS示例node file.js 或 python file.py 或 bash file.sh四、环境配置与引擎优化• envconfig/config.go 调整了 OLLAMA_NEW_ENGINE 的默认值逻辑,引入 BoolWithDefault 方法,使引擎启用逻辑更灵活。• 增强了环境变量映射支持,结构更加全面。五、模型与计算优化1. Flash Attention 类型系统引入ml/device.go 新增 FlashAttentionType 枚举类型:• Auto• Disabled• Enabled此设计使 Flash Attention 模式控制更细化,支持自动适配硬件。2. GGML 图计算增强在 fs/ggml/ggml.go 中,Flash Attention 引入枚举类型接口,支持多种量化缓存类型检测与验证方法,提升兼容性。3. Llama 引擎增强llama/llama.go 重构了 Flash Attention 参数逻辑——支持自动、启用与禁用三种模式,适配不同模型及硬件环境。4. LLM 服务逻辑优化llm/server.go 增加了 Flash Attention 用户显式设置检测逻辑,并完善了 KV 缓存量化兼容性处理。当使用量化 KV 缓存类型时必须启用 Flash Attention。KV 缓存校验机制进一步完善,增加更详细的警告提示与逻辑分支。5. ML 后端结构改进ml/backend.go 与 ml/backend/ggml/ggml.go 中统一 Flash Attention 类型接口,并在注意力计算中使用新的枚举系统,实现高效的多设备内存调度与算子融合优化。六、Gemma 3 架构修复与改良model/models/gemma3/model_text.go对 Gemma 3 的旋转位置嵌入 (RoPE) 算法进行了调整:• 新增 ropeValuesForLayer 方法,按层返回位置嵌入基础值与缩放因子。• 修复 QAT 权重导致的错误缩放比问题,强制 ropeScale 为 1.0。• 优化滑动窗口注意力机制下的 softcap 和 rope 参数初始化逻辑,使注意力计算更加准确。七、OpenAI兼容层更新openai/responses.go调整了工具调用消息的合并逻辑:• 当助手消息存在时,将后续工具调用结果合并到上一条消息中,而非新建消息。• 保留思考过程(Thinking)内容的正确关联,确保连续对话上下文一致。同时新增全面的单元测试 openai/responses_test.go,覆盖函数调用与工具输出场景,验证新逻辑稳定性。八、贡献统计• 本次版本共有 9 次提交,22 个文件修改,涉及 6 位贡献者。• 修改代码约 812 行新增与 253 行删除,覆盖核心引擎、文档、模型逻辑与工具部分。九、总结ollama v0.13.4 是一次大幅度增强版发布,重点在于:• 增强引擎默认配置与性能自动化;• 推出新一代开放智能模型;• 完善 Gemma 与 Llama 架构的兼容性;• 引入更完整的 Flash Attention 类型系统;• 提高文档与开发工具的自动化程度。
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务