Latest

海康机器人3D激光轮廓仪快速调试一

海康机器人3D激光轮廓仪快速调试一

3D轮廓仪相机物料准备 DP系列轮廓仪 24V开关电源 8pin转RJ45千兆网线 12pin转open电源线 直线运动平台 海康3D授权加密狗 软件下载 机器视觉立体相机客户端 —— 3DMVS客户端 3DMVS客户端是专为海康机器人立体相机开发的软件应用程序。适用于MV-DP系列3D激光轮廓传感器、MV-DL系列线 激光立体相机。客户端支持实时预览、参数配置、标定、数据保存、升级固件等功能。 用于3D轮廓仪图像效果调试;并集成相机SDK二次开发包供客户开发; 软件获取方式:海康机器人官网->服务支持->下 载中心,找到3DMVS最新版本下载即可 海康机器人-机器视觉-下载中心 (hikrobotics.com) 安装完成3DMVS后,SDK二次开发包路径: 默认装C盘,安装过程一直单击下一步即可 打开3DMVS后显示效果;“设备列表”里会显示当前网络里的3D相机 电脑环境配置 • 环境配置 • 关闭防火墙和杀毒软件(若安装有360、火绒、腾讯管家等杀毒软件,请关闭退出杀毒软件) • 电源选型设置为高性能模式:通过“控制面板>

一:ROS2+gazebo+PX4环境搭建:环境搭建到无人机起飞

前言 写博客记录学习的过程。 由于博客是安装完环境后写的,因此实际可能会有一些出入,但是实际上也大差不差的。 环境搭建 前置环境 * ROS2 humble * Gazebo Classic (11) 1.下载 PX4 源码 在你的 Home 目录下,用 Git 克隆 PX4 的代码仓库,并更新所有子模块。 git clone https://github.com/PX4/PX4-Autopilot.git --recursive 注意:由于这个源码中包含许多子模块,因此不建议到github主页下载zip再解压,这样做会缺失许多子模块。使用大陆的网络克隆起来会十分慢,因此强烈建议大家使用网络加速! 2.运行自动安装脚本 PX4 提供了自动化脚本,可以帮你安装编译仿真环境所需的所有依赖。 cd PX4-Autopilot bash ./Tools/setup/

【neo4j】安装使用教程

【neo4j】安装使用教程

一、安装 1.0 前置条件 安装配置好jdk17及以上 注意我使用的是neo4j 5.26.10版本,匹配java17刚好 Java Archive Downloads - Java SE 17.0.12 and earlier 无脑安装即可 配置以下环境变量 1.1 安装程序 Neo4j Deployment Center - Graph Database & Analytics 下载解压即可,Windows是绿色版本 1.2 配置环境 添加neo4j的地址 二、基本使用 2.1 开启、关闭和查看运行状态 进入安装目录的bin文件夹,cmd窗口输入 ./neo4j.

【FPGA+DSP系列】——MATLAB simulink仿真三相桥式全控整流电路

【FPGA+DSP系列】——MATLAB simulink仿真三相桥式全控整流电路

【FPGA+DSP系列】——MATLAB simulink仿真三相桥式全控整流电路 * 一、理论分析 * 二、matlab simulink实验 * 1.仿真实验 * 2.波形分析 * 总结 一、理论分析 直接上电路图,相比于单相桥式整流的区别,首先是输入变成了3相电压,这个的优势就在于三相相位差都是120°,相比于之前的单相每个周期只有两个触发信号,也只能有2个触发信号,而三相的存在会产生很多换相点,在这些点位生成触发信号会进而提高整流效果以及整流脉冲数,脉波数越多越好,越多就说明纹波越小,越趋近于直线。 导通流程: 先ab相导通,然后ac相,然后bc相,然后ba相,这个是什么决定的呢?为什么要这样导通,其实有迹可循,当我把Uab/Uac…Uca/Ucb所有的波形放到一起,你就知道为什么要这样触发,为什么是这个顺序了: 这是我将所有的波形放到一个示波器中进行观看, 其中通道顺序与颜色的对应关系如下,这样我们就能标记哪个是哪个了。 通过这个顺序,我们就可以在换相点进行触发,进而完成六脉冲的输出,同时从这个图可以得出我们的导通顺序,ab ac

论文阅读:MiniOneRec

github仓库:https://github.com/AkaliKong/MiniOneRec 技术报告论文:https://arxiv.org/abs/2510.24431 找了一个论文阅读辅助工具:https://www.alphaxiv.org/ 代码 https://github.com/AkaliKong/MiniOneRec SFT在做什么 前置:数据集 代码路径:MiniOneRec/data.py 类Tokenizer:给普通的分词器多包装了一层,可以处理连续的bos/eos的特殊字符串。 SidSFTDataset 多样化的指令 任务:输入用户最近交互过的item列表,预测用户下一个交互的item SidItemFeatDataset sid2title或者title2sid任务 FusionSeqRecDataset 带意图识别的商品推荐 代码 代码入口:MiniOneRec/sft.py 1、

3DMAX VR渲染器局部渲染设置教程

3DMAX VR渲染器局部渲染设置教程

VR 渲染器局部渲染设置 VR 渲染器的局部渲染功能灵活适配多种场景(尤其全景图),操作步骤如下: 1. 调出渲染设置面板:在 3DMAX 软件中,直接按下快捷键「F10」,快速打开渲染设置窗口(也可通过顶部菜单栏「渲染」→「渲染设置」手动调出)。 2. 确认渲染器类型:在渲染设置面板中,切换到「指定渲染器」选项卡,确保当前选定的渲染器为「V-Ray 渲染器」(若未选中,点击下拉菜单切换即可)。 1. 打开 VR 帧缓冲器:切换到「V-Ray」选项卡,找到「帧缓冲器」设置项,勾选「启用内置帧缓冲器」(部分版本默认开启),点击右侧「显示 VFB」按钮,调出 VR 帧缓冲窗口。 1.

智元 D1 强化学习sim-to-real系列 | Robot Lab 基于 Isaac Lab 的机器人强化学习使用(四)

智元 D1 强化学习sim-to-real系列 | Robot Lab 基于 Isaac Lab 的机器人强化学习使用(四)

1. 项目简介 Robot Lab 是一个基于 NVIDIA Isaac Lab 构建的机器人强化学习扩展库,专注于为各类机器人提供标准化的强化学习训练环境。该项目允许开发者在独立的环境中进行开发,而无需修改核心 Isaac Lab 仓库。对应ISaac lab 使用需要你参考并学习。然后可以参考Isaac Sim|操作界面指南,ISAAC SIM安装与软件实践学习(二)—用户界面与工作流程,Nvidia Isaac Sim图形界面 入门教程 2024(3)学习操作。最全的资料还是我们之前讲到的isaacsim官方教程以及isaaclab翻译版本 NVIDIA的机器人平台主要由两大核心组件构成,它们之间是层级关系:基础仿真平台Isaac Sim,以及构建于其上的机器人学习应用框架Isaac Lab。要精通 Isaac Sim,必须理解其分层架构中的五个核心概念。Isaac Sim 是什么? 它是一个通用的机器人模拟器,提供了高保真的物理引擎(PhysX)和照片级的渲染技术(

Vivado 使用教程

Vivado 使用教程

目录 一、创建工程 二、创建文件 三、编写代码 四、仿真验证 五、配置管脚 六、生成Bitstream文件并烧录 一、创建工程 1.左边创建(或打开)工程,右侧可以快速打开最近打开过的工程。 2.来到这一步,命名工程并设置工程的存放路径(这里以D触发器为例) 3.选择RTL点击next。会来到添加文件环节(可以在这里添加.v等文件,不过后面再添加是一样的)直接点击next。 4.选择芯片型号(根据开发板选,这里随便选的),完成后点next会弹出信息概要,finish完成。         二、创建文件 完成上述步骤会进入当前界面: 1.工程管理器add sourse添加(创建)设计文件,创建文件后选择Verilog语言并命名。 2.定义端口(可选),若在这定义后,

飞书 × OpenClaw 接入指南:不用服务器,用长连接把机器人跑起来

你想在飞书里用上一个能稳定对话、能发图/收文件、还能按规则在群里工作的 AI 机器人,最怕两件事:步骤多、出错后不知道查哪里。这个项目存在的意义,就是把“飞书接 OpenClaw”这件事,整理成一套对非技术也友好的配置入口,并把官方文档没覆盖到的坑集中写成排查清单。 先说清楚它的角色:OpenClaw 现在已经内置官方飞书插件 @openclaw/feishu,功能更完整、维护也更及时。这是好事,说明飞书 + AI 的接入已经走通。这个仓库并不是要替代官方插件,而是继续为大家提供: * 新用户:从零开始的新手教程(15–20 分钟) * 老用户:从旧版(独立桥接或旧 npm 插件)迁移到官方插件的保姆级路线 * 常见问题答疑 & 排查清单(最常见的坑优先) * 进阶场景:独立桥接模式依然可用(需要隔离/定制时再用) 另外,仓库也推荐了一个新项目

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践

PyTorch实战——基于文本引导的图像生成技术与Stable Diffusion实践 * 0. 前言 * 1. 基于扩散模型的文本生成图像 * 2. 将文本输入编码为嵌入向量 * 3. 条件 UNet 模型中的文本数据融合机制 * 4. 使用 Stable Diffusion 模型生成图像 * 相关链接 0. 前言 在本节中,我们将为扩散模型添加文本控制能力。学习如何通过文字描述来引导图像生成过程,实现从"纯噪声+文本"生成图像,而不仅是从纯噪声生成。 1. 基于扩散模型的文本生成图像 在扩散模型的 UNet 模型训练流程中,我们仅训练模型从含噪图像中预测噪声。为实现文生图功能,需使用以下架构,将文本作为额外输入注入 UNet 模型: 这样的 UNet 模型称为条件 UNet 模型 ,或者更精确地说,是文本条件 UNet

Bug记录:vscode中copilot登录github时报错——尚未完成授权此扩展使用 GitHub 的操作。

Bug记录:vscode中copilot登录github时报错——尚未完成授权此扩展使用 GitHub 的操作。

尝试了很多网上的方法无果,还是选择寻求deepseek的帮助,如下: 在VS Code中遇到“尚未完成授权此扩展使用 GitHub 的操作”错误时,可以按照以下步骤解决: 1. 重新启动授权流程 * 在VS Code中,按下 Ctrl+Shift+P 打开命令面板。 * 输入 GitHub: Sign In 并选择该命令。 * 按照提示在浏览器中完成授权流程。如果浏览器未自动打开,手动访问显示的链接并输入提供的验证码。 2. 清除GitHub的旧授权 * 登录GitHub,进入 Settings → Applications → Authorized OAuth Apps。 * 找到并撤销与 Visual Studio Code 或 GitHub for VSCode 相关的授权。 * 返回VS Code,重新尝试登录。 3. 退出并清除VS

2026年上半年主流AIGC长文本写作软件实测:5款头部工具优缺点全解析与场景适配指南

2026年上半年主流AIGC长文本写作软件实测:5款头部工具优缺点全解析与场景适配指南

摘要 进入2026年上半年,大语言模型(LLM)的底层算力与上下文处理能力均实现了显著跨越。对于广大内容创作者而言,AIGC已不再是停留在概念层面的辅助工具,而是深度嵌入“网文连载、短剧编剧、漫剧分镜”等商业变现链路的核心生产力设施。 然而,不同模型因其训练语料分布、算法架构及商业定位的差异,在实际的“长文本工业化生产”中呈现出截然不同的优缺点。本文基于2026年上半年的真实工程测试环境,选取了目前开发者社区与创作者圈层中讨论热度最高的5款头部AI写作软件(DeepSeek、Kimi、豆包、GPT-4o、炼字工坊),进行详尽的优缺点横向解析,旨在为致力于通过文字变现的从业者提供一份严谨的工具选型拓扑图。 一、 测试方法论与环境声明 本次横测摒弃了单一的“短文本问答(QA)”模式,全面采用“长线商业化叙事”作为测试基准。 * 测试场景:包含百万字长篇网文大纲构建、3000字单章正文连贯生成、短剧剧本情绪卡点设计、以及多模态(文本到图像封面)工作流整合。 * 核心观测指标:逻辑连贯性(Logical Consistency)、文本去AI化程度(AI-Trace Bypass)