avatar-decorate
获赞
5199
粉丝
215
关注
230
看过 TA
701
西昌学院
2011
golang
IP属地:北京
微信公众号:福大大架构师每日一题
私信
关注
go-zero v1.10.1 更新解析:JSON5 配置正式支持 Redis 通用命令 Do DoCtx 上线 Go 1.24 升级与 core/codec 关键安全修复全梳理二、新功能亮点:两大核心能力升级,开发效率再突破2.1 core/conf:新增JSON5配置支持,配置文件更灵活易读配置管理是微服务框架的核心能力之一,此前go-zero主要支持JSON、YAML等配置格式,而JSON5作为JSON的超集,在保留JSON兼容性的基础上,增加了诸多人性化特性,如支持注释、 trailing commas(尾部逗号)、单引号、多行字符串等,极大提升了配置文件的可读性与可维护性。在go-zero v1.10.1中,core/conf模块正式加入JSON5配置支持,开发者无需额外引入第三方库,即可直接使用JSON5格式编写配置文件。这一更新解决了传统JSON配置文件无法添加注释、格式约束严格的问题,尤其适合复杂微服务项目中多环境、多模块的配置管理场景。例如,在配置Redis、MySQL等中间件连接信息时,可直接在配置项旁添加注释说明用途、默认值及注意事项,团队协作时配置文件的理解成本大幅降低。2.2 core/stores/redis:新增Do/DoCtx通用命令执行方法,Redis操作无边界Redis作为微服务架构中最常用的缓存与数据存储中间件,其命令丰富多样,而框架内置的Redis客户端往往仅封装常用命令,对于特殊命令、自定义命令或新版本Redis命令的支持存在滞后性。go-zero v1.10.1针对这一痛点,在core/stores/redis模块中新增了Do/DoCtx方法,实现了通用Redis命令的执行能力。Do方法支持传入任意Redis命令及参数,直接与Redis服务器交互,返回原生的Redis响应结果;DoCtx则在此基础上增加了上下文(Context)支持,可实现请求的取消、超时控制,适配微服务中高并发、高可用的场景需求。这一更新彻底打破了框架对Redis命令的封装限制,开发者可直接执行任何Redis命令,无需等待框架更新封装,极大提升了Redis操作的灵活性与扩展性。无论是执行Redis 7.0+的新命令,还是自定义Lua脚本相关命令,都能通过Do/DoCtx方法轻松实现。
0 点赞 评论 收藏
分享
ollama v0.19.0 发布!Web 搜索插件上线、多模型兼容修复、MLX 与 KV 缓存全面优化,本地大模型体验再升级1. 应用体验优化ollama应用将不再错误显示“模型已过时”提示,彻底解决此前版本中模型状态判断异常的问题,避免用户被无效提示干扰,提升使用流畅度。2. Web搜索插件集成ollama launch pi功能新增内置Web搜索插件,该插件直接使用ollama官方Web搜索能力,无需额外配置即可让本地模型具备联网搜索能力,拓展本地大模型的信息获取边界,支持实时检索最新数据。3. Anthropic兼容API性能提升优化使用Anthropic兼容API时的KV缓存命中率,减少重复计算与资源消耗,提升API调用的响应速度与效率,尤其在高频、长对话场景下效果显著。4. Qwen3.5模型工具调用修复修复Qwen3.5模型工具调用解析问题,解决此前版本中工具调用内容被错误输出在思考模块的问题,确保工具调用逻辑清晰、结果准确,保障Qwen3.5模型的函数调用能力正常生效。5. MLX运行器增强• MLX运行器在提示词处理过程中会创建周期性快照,实现状态的持续备份,避免处理中断导致的进度丢失;• 修复MLX运行器中KV缓存快照的内存泄漏问题,优化内存资源占用,提升长时间运行的稳定性;• 优化MLX运行器的缓存驱逐与LRU跟踪逻辑,提升缓存管理效率;• 合并setStateRaw与setStateDetached为setState,简化API调用逻辑,降低开发与使用复杂度。
0 点赞 评论 收藏
分享
openclaw v2026.3.24 版本发布:从OpenAI模型与Embedding到Teams与Slack交互 全链路体验与稳定性一次补齐1. Gateway/OpenAI兼容性升级• 新增/v1/models与/v1/embeddings接口,实现与OpenAI生态的基础接口对齐• 在/v1/chat/completions与/v1/responses接口中,支持显式模型覆盖转发,大幅提升客户端与RAG系统的兼容性2. Agents/tools能力重构• /tools接口仅返回当前智能体可立即使用的工具,精准匹配智能体可用能力• 新增紧凑默认视图,同时提供可选的详细模式,兼顾简洁性与信息完整性• Control UI新增实时“Available Right Now”(当前可用)区域,让用户在发起请求前清晰知晓可用工具,提升交互效率3. Microsoft Teams深度集成优化• 迁移至官方Teams SDK,遵循AI-agent用户体验最佳实践• 支持1:1流式回复、带提示词启动器的欢迎卡片、反馈与反思功能、信息状态更新、输入指示器、原生AI标签• 新增消息编辑与删除支持,无明确目标时提供线程内回退机制,适配Teams消息交互逻辑4. Skills/install元数据增强• 为捆绑技能(coding-agent、gh-issues、openai-whisper-api、session-logs、tmux、trello、weather)添加一键安装配置• CLI与Control UI可在依赖缺失时自动提示并完成依赖安装,简化技能部署流程5. Control UI/skills管理升级• 新增状态筛选标签(全部/就绪/需设置/已禁用),并显示各状态技能数量• 替换内联技能卡片为点击详情对话框,展示技能依赖、开关、安装操作、API密钥输入、源元数据与主页链接,实现一站式技能管理
0 点赞 评论 收藏
分享
redis 8.6.2 发布:流 IDMP、命令处理、模块配置全修复,稳定性大幅提升1. 内存安全修复:解决潜在UAF风险修复模块字符串场景下的回复复制规避机制,避免因不当使用该机制导致的潜在UAF(释放后使用)漏洞。UAF漏洞可能引发内存访问异常、数据篡改甚至服务崩溃,此次修复从底层逻辑优化模块字符串的内存管理,彻底消除该场景下的安全隐患。2. 复制机制修复:解决全同步时的命令处理崩溃修复副本节点执行全量同步过程中,命令处理环节可能出现的崩溃问题。在Redis主从复制架构中,全量同步是数据一致性的关键流程,此前版本中该环节的命令处理逻辑存在缺陷,易导致副本节点异常退出,此次修复优化了同步时的命令执行与资源调度逻辑,保障复制流程稳定运行。3. 流数据(Streams)修复:新增内部命令与状态恢复能力新增XIDMPRECORD内部命令,同时优化AOFRW(AOF重写)的消息发射逻辑,用于恢复流数据的IDMP(幂等消息生产)状态。IDMP是Redis 8.6系列为流数据新增的核心特性,用于保障XADD命令的幂等性,此次修复解决了IDMP状态在AOF重写、数据恢复时的丢失问题,确保流数据的幂等性机制始终生效。4. 模块配置修复:优化模块回调参数传递修复setModuleEnumConfig()函数的参数传递问题,确保该函数向模块回调传递带前缀的名称时逻辑正确。该修复保障了Redis模块的配置加载与回调执行一致性,避免因参数传递错误导致模块功能异常、配置不生效等问题。5. 流数据修复:保障XADD IDMP/IDMPAUTO的元数据记录修复XADD命令使用IDMP/IDMPAUTO参数时,命中现有IID(幂等ID)却未记录元数据变更的问题。此前版本中,该场景下元数据更新逻辑缺失,会导致流数据的IDMP状态与实际数据不一致,此次修复完善了元数据同步机制,确保XADD操作的幂等性与数据一致性。6. 内存泄漏修复:多场景内存管理优化集中修复三处潜在内存泄漏问题,覆盖流数据、模块交互、命令执行等多个核心场景。内存泄漏会逐步消耗服务器内存资源,最终导致服务性能下降甚至OOM(内存溢出),此次修复从内存分配、释放、引用管理等环节优化,彻底解决对应场景的内存泄漏风险。7. 流数据修复:解决RDB加载后IDMP定时过期失效问题修复Redis加载RDB快照文件后,流数据IDMP的定时过期(cron expiration)功能不生效的问题。RDB是Redis核心持久化方式,此前版本中IDMP的过期状态无法通过RDB正确恢复,导致过期消息无法自动清理,此次修复完善了RDB加载时的IDMP状态初始化逻辑,保障过期机制正常运行。8. ACL权限修复:解决错误参数命令的ACL检查崩溃修复执行参数数量错误(wrong-arity)的命令时,ACL权限检查环节可能出现的崩溃问题。ACL是Redis的核心安全机制,用于控制客户端命令访问权限,此前版本中对错误参数命令的ACL校验逻辑存在缺陷,易引发服务崩溃,此次修复优化了校验流程,提升ACL机制的稳定性。9. 哈希命令修复:完善HSETEX、HGETEX的参数校验修复HSETEX、HGETEX命令未校验FIELDS参数仅指定一次的问题。此前版本中,若重复指定FIELDS参数,命令会出现执行异常、数据错误等问题,此次修复新增参数合法性校验逻辑,确保哈希命令的参数格式符合规范,提升命令执行的可靠性。10. 流数据修复:全面解决IDMP相关遗留Bug集中修复流数据IDMP特性的多项遗留问题,覆盖IDMP状态管理、命令执行、数据同步、过期清理等全流程。IDMP作为Redis 8.6系列的核心新特性,此前存在多处细节缺陷,此次修复完成了IDMP特性的全面优化,保障其在生产环境的稳定可用。
0 点赞 评论 收藏
分享
ollama v0.18.3 发布:VS Code 原生集成 + Agent 模式,本地 AI 开发体验全面革新3.1 Agent模式定义:让Ollama具备自主执行开发任务的能力Ollama v0.18.3正式开放Agent模式,这一功能让Ollama能够借助VS Code的Agent模式能力,自主执行命令、编辑文件、迭代代码,从单纯的“问答式AI助手”升级为“可行动的开发智能体”,大幅提升AI在开发流程中的自动化能力。简单来说,Agent模式下的Ollama不再局限于“你问我答”,而是可以根据开发者的指令,直接操作VS Code完成一系列开发任务,例如运行测试、修复Bug、生成文档、修改代码等,实现开发流程的自动化与智能化。3.2 实用指令:Agent模式下的高频开发指令示例Agent模式支持开发者通过自然语言指令,让Ollama自主完成复杂开发任务,以下是本次更新中官方推荐的高频实用指令,覆盖测试、文档、代码生成三大核心场景:1. 测试相关指令:• “Run the tests and fix any failures”(运行测试并修复所有失败用例):Ollama会自动运行项目测试,定位失败原因,直接修改代码修复问题;• “Generate unit tests for this file”(为当前文件生成单元测试):自动分析当前文件的代码逻辑,生成覆盖核心功能的单元测试代码;2. 文档相关指令:• “Update the README with the new API changes”(根据新的API变更更新README文档):自动识别项目API的更新内容,同步修改README文档,确保文档与代码一致;3. 代码迭代指令:• 支持“优化当前函数性能”“重构代码结构”“添加注释”等自定义指令,Ollama会根据指令自主编辑代码文件,完成迭代优化。3.3 功能优势:Agent模式重构本地AI开发流程Agent模式的推出,彻底改变了本地大模型在开发中的角色,核心优势体现在三个方面:• 任务自动化:将开发者从重复、繁琐的开发任务中解放,例如测试修复、文档更新、代码生成等,大幅提升开发效率;• 上下文感知:基于VS Code的项目上下文,Ollama可精准理解项目结构、代码逻辑与开发需求,执行的操作更贴合实际开发场景;• 全流程协同:从代码编写、测试到文档维护,Agent模式覆盖开发全流程,实现AI与开发工具的深度协同,打造“一站式”智能开发体验。
0 点赞 评论 收藏
分享
nginx 1.28.3 稳定版全解析:6 大 CVE 修复、核心模块优化与代码变更详解3.1 QUIC模块优化1. 调整无状态重置(Stateless Reset)数据包最小长度,从21字节调整为41字节2. 限制无状态重置数据包最大尺寸为1200字节,避免超大包攻击3. 新增无状态重置速率限制,基于地址哈希与位图实现频率控制,防止滥用4. 无状态重置令牌与worker进程绑定,避免跨进程数据包处理异常5. 重构ngx_quic_address_hash()函数,优化地址哈希计算逻辑6. 提升OpenSSL兼容层错误处理能力,修复密钥设置失败导致的内部错误7. 修复错误worker进程接收QUIC数据包导致连接断开的问题3.2 MP4模块修复1. 校验stss原子同步样本值,禁止零值同步样本,避免解析异常2. 修复32位平台整数溢出问题,防止内存越界3. 禁止零长度缓冲区输出,避免空指针异常4. 优化时间切片逻辑,当结束偏移小于等于起始偏移时直接返回错误5. 修复样本索引、chunk索引越界问题,完善原子大小边界校验6. 修复关键帧查找逻辑,将返回值类型从uint32_t改为ngx_int_t,统一错误处理3.3 DNS解析模块修复1. 修复ngx_resolver_copy()函数中的off-by-one读取错误2. 调整SRV记录解析边界判断条件,从i + 6 > n改为i + 6 >= n,避免短响应解析异常3.4 邮件模块修复1. 修复auth_http请求中s->passwd内存清理不彻底问题,使用ngx_str_null统一初始化2. 新增SMTP主机名校验函数,过滤非法字符,防止DNS注入3. 主机名解析失败时直接返回临时不可用状态,避免异常连接3.5 Stream SSL模块修复1. 完善客户端证书OCSP校验逻辑,校验失败时记录错误日志并终止握手2. 清除OCSP失败的会话缓存,防止非法会话复用
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
lmdeploy v0.12.2 发布!全面支持 GLM5、Qwen3.5,性能与兼容性双升级,大模型部署再提速(一)主流大模型全面适配,覆盖国产与开源生态1. 支持GLM5模型作为本次版本的核心亮点之一,lmdeploy v0.12.2正式新增对GLM5模型的支持,补齐了对智谱AI主流大模型的部署能力。GLM5作为智谱AI推出的新一代大模型,在通用理解、逻辑推理、多轮对话等方面具备显著优势,此次适配让开发者可通过lmdeploy快速实现GLM5模型的本地推理与服务化部署,无需复杂的二次开发,即可将GLM5的能力集成到各类应用中。2. 新增Qwen3.5模型支持紧跟通义千问模型迭代节奏,v0.12.2版本全面支持Qwen3.5系列模型,包括密集型(Dense)与混合专家型(MoE)架构。Qwen3.5作为阿里云推出的高性能大模型,在长文本处理、多模态交互、实时推理等场景表现突出,此次适配不仅实现基础推理支持,更通过TurboMind引擎深度优化,保障Qwen3.5模型在部署后的推理效率与稳定性。3. GLM-4.7-Flash Turbomind专项支持针对GLM-4.7-Flash模型,版本新增专属的TurboMind支持能力。GLM-4.7-Flash主打低延迟、高吞吐推理,适配实时对话、智能客服等对响应速度要求严苛的场景,lmdeploy通过定制化的TurboMind引擎适配,充分释放该模型的性能潜力,实现推理延迟与吞吐量的双重优化。4. Qwen/Internlm/Llama系列模型FP8量化在线支持为解决大模型部署中的显存占用与推理速度矛盾,v0.12.2版本实现对Qwen、Internlm、Llama三大主流模型系列(含Dense与MoE架构)的FP8量化在线支持。FP8量化作为兼顾精度与效率的量化方案,可在几乎不损失模型推理精度的前提下,将显存占用降低约50%,同时提升推理速度,大幅降低大模型部署的硬件门槛,让中低端GPU也能流畅运行百亿参数级大模型。(二)推理与生成能力升级,提升生成质量与灵活性1. 新增TurboMind对Qwen3.5全架构支持除基础适配外,版本通过专项开发,实现TurboMind引擎对Qwen3.5 Dense与MoE架构的完整支持。TurboMind作为lmdeploy的核心推理引擎,基于C++/CUDA实现,具备连续批处理、分块KV缓存、高性能算子等优势,此次针对Qwen3.5的深度优化,可让该模型在lmdeploy部署后,吞吐量较原生推理提升数倍,同时降低推理延迟。2. 支持Router Replay与量化层忽略(Qwen3.5专属)针对Qwen3.5模型的MoE架构特性,版本新增Router Replay(路由重放)与忽略量化层功能。Router Replay可优化MoE模型中专家路由的推理效率,减少重复计算;忽略量化层则允许开发者针对模型特定层跳过量化,平衡推理精度与速度,满足不同场景的部署需求,进一步提升Qwen3.5模型部署的灵活性。3. 新增Repetition Ngram Logits Processor为解决大模型生成过程中的重复文本问题,v0.12.2版本新增Repetition Ngram Logits Processor(重复N元语法逻辑处理器)。该功能通过对生成文本的N元语法进行检测与惩罚,有效抑制重复片段的生成,提升生成文本的连贯性、多样性与质量,尤其适用于长文本生成、内容创作、对话交互等场景。
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享
0 点赞 评论 收藏
分享

创作者周榜

更多
关注他的用户也关注了:
牛客网
牛客网在线编程
牛客网题解
牛客企业服务