算法

加入交流群
扫码加入
获取工程师必备礼包
参与热点资讯讨论
  • 基于 JC100 安全芯片的智能硬件固件保护实践
    在智能硬件全生命周期管理体系中,固件安全防护构成了设备可信运行的核心屏障。从抵御恶意篡改引发的功能性安全漏洞,到防范未经授权的固件复制导致知识产权流失,均亟需构建系统化的安全防护体系。 采用基于国密标准的 SM2 非对称密码算法,融合物理不可克隆函数(PUF)技术,已成为当前智能硬件固件安全防护领域的前沿解决方案。 本文以 JC100 安全芯片为例,使用 SM2 算法与 PUF 模块协同工作,完整
  • 企服领域最佳商业模式,几个人交付上千万GEO订单
    GEO(生成式优化)在数字营销疲软的背景下成为新焦点,但合规的实施方式仍是一个黑盒。国内最早的GEO服务商清蓝创始人鲁扬分享了GEO的业务本质、算法壁垒、与AI大厂的关系以及未来市场格局。他认为GEO的核心是用模型学习模型,用算法解密算法,并预测GEO未来将覆盖营销全链路,优化用户的意图而非单一查询。此外,GEO不会像SEO那样分散,而是具有马太效应,最终会被少数技术领先的公司主导。
    650
    04/05 10:55
    企服领域最佳商业模式,几个人交付上千万GEO订单
  • Gemini 3官网实战:代码调试与算法实现效率提升方案
    对于开发者而言,大模型已成为日常编码的得力助手。Gemini 3凭借其原生多模态架构和强大的代码理解能力,在代码生成、调试和算法实现上表现突出。 国内用户通过RskAi(www.rsk.cn)可使用Gemini 3,无需特殊网络配置,直接获得高效代码辅助。本文将通过真实开发场景,拆解Gemini 3在解决编程问题时的技术优势与实测效果。 一、Gemini 3代码能力的底层技术解析 Gemini 3
    912
    04/02 11:20
  • Google 6倍压缩KV缓存还不损失精度的原理是什么?
    Google推出的新算法TurboQuant,通过两阶段方法大幅提升了Transformer模型的运行效率。首先,PolarQuant利用极坐标量化消除元数据开销;其次,1-bit QJL变换确保残差无偏校正,从而实现了真正的零精度损失。TurboQuant不仅显著减少了显存占用,还提高了推理速度,适用于各种Transformer模型,并且无需额外训练或数据依赖。
  • 从终端到太空,芯际穿越撑起追觅未来版图
    芯际穿越,追觅科技的战略芯片业务,旨在打造世界级智能计算芯片生态,应对端侧智能与通用计算领域的挑战。芯际穿越推出泛机器人SoC、手机处理器、自动驾驶芯片,依托追觅的智能制造技术和丰富场景数据,实现技术与产品的深度融合。芯际穿越的目标是在下一代人工智能计算领域取得领先地位,并通过太空算力拓展业务版图,推动中国企业在国际竞争中占据有利位置。
    从终端到太空,芯际穿越撑起追觅未来版图
  • 解锁端到端仿真新可能 :全新aiSim 6 即将发布
    01、前言 随着端到端自动驾驶从学术探索走向规模化应用,无论是特斯拉 FSD 神经模拟器、Waymo 基于 DeepMind Genie 3 的世界模型,还是国内主流车企的数据闭环体系,均在表明仿真系统的定位已从传统测试执行工具,升级为支撑算法训练的核心数据基础设施。 尤其需要重视的是,端到端模型直接消费传感器数据进行训练,这对仿真提出了三个过去从未被充分重视的要求: 其一,光照覆盖的系统性缺口。
  • 2025年中科院1区中心碰撞优化算法(CCO)
    本文提出了一种新的元启发式算法——中心碰撞优化器(CCO),其灵感来自经典物理学中的正面碰撞方程。CCO采用统一的位置更新策略,称为中心碰撞策略,该策略同时在原始解空间和非相关解空间中运行。这种双重空间方法显着增强了算法的全局搜索能力,提高了其逃避局部最优的能力。此外,引入了空间分配策略来加速收敛,进一步提高搜索效率。
    1536
    03/05 17:24
  • 粒子群PSO优化融合注意力机制的卷积神经网络-双向长短期记忆网络的多变量预测
    CNN-BiLSTM-Attention模型是一种在自然语言处理(NLP)任务中常用的强大架构,如文本分类、情感分析等。它结合了卷积神经网络(CNN)、双向长短期记忆网络(BiLSTM)和注意力机制的优势,能够捕捉局部特征和序列数据中的长程依赖关系。
  • 2025年中科院1区SCI优化算法-Logistic-Gauss Circle optimizer
    本文提出了一种基于混沌地图的新型元启发式算法——Logistic-Gauss Circle优化器(LGC)。通过将Logistic、Gauss和Circle混沌映射相结合,设计了探索和开发两种操作,实现了全局优化。实验结果显示,LGC在多个基准函数上优于现有元启发式算法。
    580
    03/03 15:55
  • 6G专题 | 后量子密码算法在6G网络中的应用研究
    从2019年实质性研究启动,到2023年国际电信联盟发布愿景文件,再到2025年6G标准元年确立,6G正从前沿理念加速照进现实。步入2026年,6G发展进一步迈入技术与标准完善的关键时期,尽管业界已就6G初步形成共识,但诸多基础性、关键性难题仍亟待破解。为此,《通信世界》特策划“6G关键技术深潜”专题,聚焦系统架构创新、技术路径探索、融合能力提升等话题展开深度探讨,以期为产业发展提供参考与启示。
    6G专题 | 后量子密码算法在6G网络中的应用研究
  • 汽车多总线数据采集:挑战、架构与同步策略一文全解析
    一、引言 每一次极端天气下的紧急制动,每一段复杂路况中的精准识别,本质都在考验算法对现实世界的适应能力。因此,我们可以看到在智能辅助驾驶从“功能验证”到“场景攻坚”的关键阶段,真实、高质量的数据是算法性能提高的基石。尤其在极端天气、颠簸路面和电磁干扰等恶劣工况下,如何实现多源传感器数据的高可靠采集、高精度同步与高效率处理,是行业中常遇到的难题。 下文将结合行业实践,系统拆解多总线(CAN/LIN/
  • Ubuntu:算法自动化测试平台搭建
    本文介绍了一个简易的算法测试平台的搭建过程,重点在于提供一个清晰的设计思路和技术要点。平台基于 Django、MySQL 和 Docker 技术栈构建,涵盖了环境配置、数据库设置、前端布局和图片应用等方面。通过搭建基础应用和扩展功能模块,实现了算法测试的基本流程,包括测试项目、测试计划、执行测试和测试归档等功能。整体设计简洁高效,适合中小型团队使用。
    1564
    01/18 08:55
  • 自动驾驶真正的安全瓶颈,到底卡在哪?——不是算法,而是“系统安全闭环”
    自动驾驶安全的核心问题是系统无法证明自己的安全性。三大瓶颈包括:失效模式复杂且难以预测;人机交互是最薄弱的安全环节;缺乏运行中的安全闭环能力。解决方法应从设计安全转向运行安全,从人兜底转向系统自兜底,从功能正确转向行为可解释。最终目标是让系统在不确定情况下能够自我判断并采取适当措施。
    自动驾驶真正的安全瓶颈,到底卡在哪?——不是算法,而是“系统安全闭环”
  • 如何做好全自动化ADAS 高精度标注?
    一、引言 在ADAS(高级辅助驾驶)开发领域,高质量的标注数据是算法迭代的核心基础。然而,传统依赖人工标注的模式通常成本高昂、周期漫长,每年投入可达数百万美元,处理时间往往需要数月,严重制约了研发效率与项目推进速度。 这正是本文介绍的aiData Auto Annotator 解决方案的核心价值:由 aiMotive 打造的强大自动化工具,旨在大幅降低标注成本并缩短处理时间。当路测数据采集完成后,
  • 嵌入式算法13---大数据变长存储算法
    对于高精度采样结果,其数值最大可能需要3字节,最少1字节,采用标准C的基础数据类型,U16太小无法满足需求,U32则浪费内存。当样本量很大时,其占用的空间问题便突显出来。能否采用变长数据类型存储呢?对小数据采用U8,大数据采用U32,随着数值大小动态分配存储空间,就是本文的讨论的重点。
    520
    2025/12/21
  • 【新品解读】5G/6G 基带系统级验证,AXVU13G 如何缩短高速系统研发周期
    在高速光链路验证、5G/6G 基带原型、或复杂测试测量系统中,工程团队常常面临“链路跑不满速、算法跑不动、系统验证周期长”的困境。AXVU13G 为此提供了完整解决方案:高速接口、海量 DSP 与逻辑、丰富扩展,让你的验证与原型一站式完成。 强大计算资源:支撑大型算法、基带与采集系统原型 AXVU13G 核心板采用 AMD Virtex Ultrascale+ XCVU13P 大规模 FPGA:
    780
    2025/12/16
  • 配网行波故障预警与定位装置怎么验证算法交叉
    江苏宇拓电力科技来跟大家聊一聊配网行波故障预警与定位装置YT/XJ-001怎么验证算法交叉。 配网行波故障预警与定位装置YT/XJ-001的算法交叉验证,是指通过多算法协同研判与多维度数据校验,确保不同算法对同一故障场景的诊断结果一致,或通过算法间的逻辑互补提升故障辨识与定位的可靠性。装置需结合配网“多T接、架空电缆混架、小电流接地”等复杂特性,围绕故障定位、接地选线、隐患监测三大核心功能,构建“
  • 推理新范式:动态效能算法让算力资源实现最大化
    GPU不再只是静态资源,而是可运营、可定价、可持续经营的资产。随着推理时代的到来,算力成为跨地域、跨架构、跨属权的综合体系,要求实时、动态、按业务优先级调度。传统的调度平台无法满足这一需求,因此需要新的调度系统来解决模型结构差异、推理链路时延等问题。矩量无限的开物算力调度系统融合了Kubernetes动态资源分配技术,通过自学习算力适配器将异构国产GPU资源转化为动态标准化的“算力能力单元”,实现了基于任务实际需求的目标导向按需调度,显著提高集群资源利用率和运行稳定性。该系统已在国产GPU卡上得到规模验证,并应用于多个千卡智算中心。
    735
    2025/11/13
    推理新范式:动态效能算法让算力资源实现最大化
  • 讲讲如何实现高保真虚拟数据集生成
    一、前言 在自动驾驶感知系统的研发过程中,模型的性能高度依赖于大规模、高质量的感知数据集。目前业界常用的数据集包括 KITTI、nuScenes、Waymo Open Dataset 等,它们为自动驾驶算法的发展奠定了重要基础。 然而,构建真实世界的感知数据集并非易事——不仅需要投入大量人力、物力与时间成本,还需要面对数据采集受限、隐私合规、标注耗时以及极端场景(corner case)难以获取等
  • 一文拆解SiL测试痛点,讲清全研发周期SiL验证方案如何做!
    01、引言 在自动驾驶系统的研发过程中,如何平衡创新速度与系统可靠性,是每个工程团队都必须面对的核心挑战。 团队常常面临着来自两个维度的具体痛点:在本地开发阶段,工程师们常常受限于HiL测试资源紧张、调试成本高昂、算法早期验证困难等问题;而在规模化测试阶段,团队又面临着测试周期过长、CI/CD集成困难、资源利用不平衡等新的挑战。这些痛点严重制约了自动驾驶技术的迭代速度和质量保障。 本文将从这些实际

正在努力加载...