<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>SR on Xiong Jia</title>
        <link>https://Peraspera1.github.io/categories/sr/</link>
        <description>Recent content in SR on Xiong Jia</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <copyright>xj</copyright>
        <lastBuildDate>Mon, 14 Apr 2025 20:34:24 +0800</lastBuildDate><atom:link href="https://Peraspera1.github.io/categories/sr/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>NeuralFeels</title>
        <link>https://Peraspera1.github.io/p/neuralfeels/</link>
        <pubDate>Mon, 14 Apr 2025 20:34:24 +0800</pubDate>
        
        <guid>https://Peraspera1.github.io/p/neuralfeels/</guid>
        <description>&lt;img src="https://Peraspera1.github.io/images/NeuralFeels/cover.png" alt="Featured image of post NeuralFeels" /&gt;&lt;h2 id=&#34;信息概览&#34;&gt;信息概览
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Science Robotics&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;论文题目：&lt;/strong&gt; NeuralFeels with neural fields: Visuotactile perception for in-hand manipulation&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;论文单位：&lt;/strong&gt; CMU&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;是否开源：&lt;/strong&gt; 是&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;总结：&lt;/strong&gt;
为了实现类人灵巧操作，机器人必须理解和推理其操作物体的空间关系。特别是在手内操作中，机器人需要估计物体的姿态（位姿）和形状。传统的机器人视觉系统通常面临视觉遮挡的问题，当物体被手或环境遮挡时，视觉数据会变得不完整，从而影响精度。&lt;/p&gt;
&lt;p&gt;NeuralFeels方法使用了视觉（RGB-D摄像头）、**触觉（基于视觉的触觉传感器）和本体感知（机器人关节角度）**数据。这些数据通过在线神经场（Neural Field）模型进行处理，结合了多种感知输入，以获得更精确的物体位姿和形状估计&lt;/p&gt;
&lt;p&gt;作者使用了Signed Distance Field (SDF)，这是一种基于距离的表示方法，可以高效地表示物体的表面。&lt;/p&gt;
&lt;p&gt;NeuralFeels方法的一个关键特性是在线学习。在物体与机器人手进行交互时，系统会实时更新物体的3D表示（SDF）和位姿&lt;/p&gt;
&lt;h2 id=&#34;工作流&#34;&gt;工作流
&lt;/h2&gt;&lt;p&gt;&lt;img src=&#34;https://Peraspera1.github.io/images/NeuralFeels/workflow.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;workflow&#34;
	
	
&gt;
系统首先通过视觉（RGB-D相机）和触觉（指尖DIGIT传感器）获取数据，利用​​Segment Anything Model（SAM）​​分割物体区域并排除手部遮挡，同时通过预训练的​​触觉变压器​​从触觉图像中提取接触深度；随后，前端处理生成的点云与深度信息输入后端，通过​​神经符号距离场（SDF）​​建模物体几何形状，并构建​​位姿图​​（包含SDF约束、帧间ICP配准和位姿平滑因子），采用交替优化策略——即固定位姿时通过梯度下降更新神经场参数，固定神经场时通过非线性优化（Levenberg-Marquardt算法）求解物体位姿，同时动态管理关键帧以平衡计算效率与全局一致性，最终在在线交互中实现物体形状的渐进式重建与姿态的稳定跟踪，触觉数据在视觉遮挡或噪声场景下显著补全局部几何信息，提升系统鲁棒性。&lt;/p&gt;
&lt;h2 id=&#34;度量指标&#34;&gt;度量指标
&lt;/h2&gt;&lt;h3 id=&#34;pose-metric位姿度量&#34;&gt;Pose Metric（位姿度量）
&lt;/h3&gt;&lt;p&gt;首先是位姿，从估计的网格中下采样一些点，并与离其最近的真实点作差&lt;/p&gt;
&lt;p&gt;传统的成对距离方法需要在估计点和真实点之间建立逐对对应关系，对于每个估计点，都需要找到多个真实点并计算距离，这样会导致计算量迅速增加，尤其是当物体复杂或者有大量点时，计算量会非常庞大。&lt;/p&gt;
&lt;p&gt;ADD-S通过只计算每个估计点和最近点的距离，避免了这种逐对匹配，大大减少了计算的复杂度。每个点只需要找到对应的最近点，而不需要考虑所有可能的点对，这样可以大幅加速计算过程。&lt;/p&gt;
&lt;p&gt;？？不过这样难道不会陷入局部最优吗？得去代码里仔细看看&lt;/p&gt;
&lt;h3 id=&#34;shape-metric形状度量&#34;&gt;Shape Metric（形状度量）
&lt;/h3&gt;&lt;p&gt;形状度量用来衡量物体形状的重建精度。为了评估物体的形状重建，作者使用了 F-score，这是一个结合了精度（Precision）和召回率（Recall）的指标，通常用于多视角重建任务。&lt;/p&gt;
&lt;p&gt;精度（Precision）
精度衡量的是重建的表面点与真实表面点之间的匹配质量。具体来说，它计算的是：&lt;/p&gt;
&lt;p&gt;重建的点集中有多少百分比的点，在距离真实表面点 $\tau$（例如5毫米）以内。&lt;/p&gt;
&lt;p&gt;召回率（Recall）
召回率衡量的是真实物体表面点被重建点覆盖的程度。具体来说，它计算的是：&lt;/p&gt;
&lt;p&gt;真实的物体表面点中有多少百分比的点，可以在重建的点集里找到，并且其距离小于 $\tau$。&lt;/p&gt;
&lt;p&gt;F-score 是精度和召回率的调和平均值（harmonic mean），这可以综合考量重建的准确度和完整度，得出一个[0,1]的评分。
F-score 的值越接近 1，表示重建的物体表面越精确，重建的点与真实点之间的距离越小，且重建点尽可能多地覆盖了真实表面。&lt;/p&gt;
&lt;h2 id=&#34;细节&#34;&gt;细节
&lt;/h2&gt;&lt;p&gt;物体的对齐：为了避免初始化阶段的误差，作者在实验中假设物体的初始位姿是已知的，并且它与真实位姿是对齐的。这意味着，尽管物体的初始位姿是在实验开始时设定的，物体的质心和主轴已经在某种程度上与地面真值对齐.初始化时，物体的坐标系是通过CAD模型的几何质心和主轴方向来设置的，确保物体坐标系与实际操作中的初始姿势匹配。为了保证后续重建的物体位姿不会从中受益，作者在手内物体旋转的5s后才开始做物体位姿和形状的测量，专注与后续的重建和跟踪。&lt;/p&gt;
&lt;p&gt;由于细小误差的积累，且没有回环检测，那么随着时间的累积，物体的pose误差会不断累计，不过作者并没有这方面的改进，只是说明他们大部分的实验的形状估计并没有随着时间的延长而恶化。&lt;/p&gt;
&lt;h2 id=&#34;目标&#34;&gt;目标
&lt;/h2&gt;&lt;p&gt;增量式地重建物体，在线地同时优化网络权重-&amp;gt;更新SDF，物体位姿&lt;/p&gt;
&lt;p&gt;有一个灵巧手在拿着物体旋转，这个旋转的策略应该是给定的&lt;/p&gt;
&lt;p&gt;输入RGBD图像，四个手指的触觉传感器，以及机器人自身关节角旋转的参数&lt;/p&gt;
&lt;h2 id=&#34;key-insights&#34;&gt;key insights
&lt;/h2&gt;&lt;p&gt;神经场（Neural Fields）是一种利用神经网络表示和建模3D空间中物体形状的方式。最常见的形式是有符号距离场（Signed Distance Fields，SDF），它通过神经网络来近似描述物体表面的位置。在这种表示中，每一个空间点都有一个标量值，表示到最近表面的距离。&lt;/p&gt;
&lt;p&gt;神经场的优势在于，它提供了一种连续的、差分可计算的方式来描述复杂的三维几何形状，相比于离散的表示（例如点云或网格），神经场在内存占用和计算效率上更具优势，且可以进行精确的表面重建。&lt;/p&gt;
&lt;p&gt;“姿态化”意味着神经场不仅表示物体的几何形状，还考虑了物体的位置和姿态（即其在三维空间中的方向和位置）。具体来说，NeuralFeels 中的神经场是通过优化物体的姿态（即物体在空间中的位置和朝向）和形状（即物体的几何特征）来动态更新和估计物体的模型。&lt;/p&gt;
&lt;p&gt;在NeuralFeels中，物体模型（即神经场）是通过交替优化的方式来估计的：&lt;/p&gt;
&lt;p&gt;形状优化：通过优化神经网络来更好地匹配物体的表面。&lt;/p&gt;
&lt;p&gt;姿态优化：通过优化姿态图（Pose Graph）来调整物体的相对位置和朝向，确保物体的表面与其姿态保持一致&lt;/p&gt;
&lt;h2 id=&#34;触觉相关&#34;&gt;触觉相关
&lt;/h2&gt;&lt;p&gt;DIGIT视觉触觉传感器&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://Peraspera1.github.io/images/NeuralFeels/tactile.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;tactile&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;输入为触觉图像，输出为像素级深度图。&lt;/p&gt;
&lt;h2 id=&#34;前端&#34;&gt;前端
&lt;/h2&gt;&lt;h2 id=&#34;后端&#34;&gt;后端
&lt;/h2&gt;&lt;h2 id=&#34;需要讨论的问题&#34;&gt;需要讨论的问题
&lt;/h2&gt;&lt;p&gt;1 这个论文的代码里给的是原始的触觉输入图像，然后他们自己训了一个transformer来输出深度，如果用我们自己的传感器需要作哪些更改？&lt;/p&gt;
&lt;p&gt;2 SDF没有颜色信息，用&lt;a class=&#34;link&#34; href=&#34;https://github.com/city-super/GSDF&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;GSDF&lt;/a&gt;转高斯？或者还有没有别的方法？从本质上来说，我只是需要物体的形状作监督，只是physgaussian和GIC等代码用的是颜色来作为损失，既然已经有SDF场，有没有什么办法能把sdf离散为粒子？比如sdf-&amp;gt;voxel-&amp;gt;particle&lt;/p&gt;
&lt;h2 id=&#34;补充材料&#34;&gt;补充材料
&lt;/h2&gt;&lt;p&gt;随便记录下&lt;/p&gt;
&lt;h3 id=&#34;物体的mesh和pose真值的获取&#34;&gt;物体的mesh和pose真值的获取
&lt;/h3&gt;&lt;p&gt;获取真实物体的mesh
&lt;img src=&#34;https://Peraspera1.github.io/images/NeuralFeels/sup01.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;sup01&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;获取真实物体的pose
&lt;img src=&#34;https://Peraspera1.github.io/images/NeuralFeels/sup02.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;sup02&#34;
	
	
&gt;&lt;/p&gt;
&lt;h3 id=&#34;keyframe选取&#34;&gt;keyframe选取
&lt;/h3&gt;&lt;p&gt;两个指标，一个是时间间隔，另一个是将SDF渲染为深度图，与传感器深度图对比计算差异。若平均损失超过阈值 d_thresh？，说明当前SDF模型与观测数据差异较大（例如探测到物体新表面），从信息增益的角度出发？&lt;/p&gt;
&lt;h3 id=&#34;触觉-深度图相比于二值有哪些优势&#34;&gt;触觉-深度图相比于二值有哪些优势？
&lt;/h3&gt;</description>
        </item>
        <item>
        <title>SFA</title>
        <link>https://Peraspera1.github.io/p/sfa/</link>
        <pubDate>Sat, 08 Mar 2025 14:43:57 +0800</pubDate>
        
        <guid>https://Peraspera1.github.io/p/sfa/</guid>
        <description>&lt;img src="https://Peraspera1.github.io/images/SFA/cover.png" alt="Featured image of post SFA" /&gt;&lt;h1 id=&#34;论文信息&#34;&gt;论文信息
&lt;/h1&gt;&lt;h2 id=&#34;信息概览&#34;&gt;信息概览
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Science Robotic 2019&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;论文题目：&lt;/strong&gt; See, feel, act: Hierarchical learning for complex manipulation skills with multisensory fusion&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;论文单位：&lt;/strong&gt; MIT&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;是否开源：&lt;/strong&gt; 否&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;总结：&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;文章要解决的一个核心问题是机器人如何像人类一样，结合视觉和触觉信息，高效学习复杂的物理操作技能，比如玩 Jenga（叠叠乐）？&lt;/p&gt;
&lt;h2 id=&#34;论文细节&#34;&gt;论文细节
&lt;/h2&gt;&lt;p&gt;分析：
这个问题可以从两个角度来解读：1 机器人需要边操作边感知，用触觉和视觉来推测积木状态，而不是仅靠视觉；2 机器人需要同时处理可移动和不可移动的积木，制定合适的策略来提取积木，而不让塔倒塌。传统机器人学习主要依赖视觉数据，缺乏触觉推理能力，导致它们需要大量数据才能学会基本操作。而基于强化学习方法需要大量训练数据，但由于Jenga游戏中的物理交互细节微妙，RL难以快速收敛。因此，文中给出的方法可以按照探索（Exploration）+ 学习（Learning）+ 决策（Decision Making）的框架来解决。&lt;/p&gt;
&lt;h3 id=&#34;探索&#34;&gt;探索
&lt;/h3&gt;&lt;p&gt;机器人随机选择一个积木并执行推的动作，并记录：积木的受力情况（触觉传感器），积木移动的位置和角度（摄像头），机器人末端执行器的参数（本体感知），塔的稳定性（由视觉观测），类似于人类玩Jenga时会试探性地推一下积木，看看它是否松动&lt;/p&gt;
&lt;h3 id=&#34;训练&#34;&gt;训练
&lt;/h3&gt;&lt;p&gt;论文提出了一种分层学习（hierarchical learning）方法；&lt;/p&gt;
&lt;p&gt;低层级：学习物理参数（如积木的受力情况、摩擦力、位移）&lt;/p&gt;
&lt;p&gt;高层级：归纳行为模式（如“积木可以移动” vs “积木被卡住”）&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://Peraspera1.github.io/images/SFA/images1.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;image&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;绿色集群表示机器人未与任何块接触的轨迹，特别是在轨迹开始时，测得的力可以忽略不计，并且块不会移动。灰色簇表示抵抗运动并被卡住的块，表现出较大的阻力并且几乎没有平移。蓝色簇表示相当容易移动的块（大位移）并且表现出可以忽略不计的阻力。黄色集群表示移动但对机器人提供有意义阻力的块。&lt;/p&gt;
&lt;p&gt;计算：积木是否容易被推动（基于力反馈）/积木是否松动（基于历史数据）/积木移动时的可能路径（基于视觉+力传感器）&lt;/p&gt;
&lt;p&gt;论文使用了贝叶斯神经网络（BNN, Bayesian Neural Network） 学习积木的力学行为模式，使机器人可以从少量数据中泛化：输入：推积木时的力+位移信息。输出：预测未来的受力情况和积木的运动轨迹。&lt;/p&gt;
&lt;h3 id=&#34;泛化&#34;&gt;泛化
&lt;/h3&gt;&lt;p&gt;机器人在每次推积木时，会先计算成功的概率。例如，如果积木之前被推过但没有动，机器人会降低推的力度或改变推的方向。&lt;/p&gt;
&lt;p&gt;然后执行贝叶斯更新（Bayesian Update）：机器人会随着每次操作更新对积木状态的信心。&lt;/p&gt;
&lt;p&gt;例如：机器人发现某个积木很难移动 → 更新其状态为“卡住”，减少未来的尝试。发现某个积木容易移动 → 优先尝试此类积木。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;更多训练的细节：&lt;/strong&gt;
1 采用贝叶斯建模学习积木的物理属性；
2 用深度学习训练一个预测模型（输入力，预测积木的反应）；
3 机器人自监督学习，不断改进对积木状态的推测；&lt;/p&gt;
&lt;h2 id=&#34;思考&#34;&gt;思考
&lt;/h2&gt;&lt;p&gt;这个训练的框架也许有用，但应该仅限于摩擦力的框架，而且我对BNN并不太了解；&lt;/p&gt;
&lt;p&gt;估计摩擦力的框架到时可以借鉴？即输入物体的rgb图+末端执行器的位姿+施加力的大小和方向，然后先算一步先验(即初步估计的摩擦系数，就能简单的判断这个力是否能推动物体)再输入神经网络，得到物体下一时刻的位移。&lt;/p&gt;
&lt;h2 id=&#34;其他&#34;&gt;其他
&lt;/h2&gt;&lt;p&gt;论文提出了一种分层学习（hierarchical learning）方法，通过视觉和触觉融合，使机器人学习Jenga游戏中的操作技能&lt;/p&gt;
&lt;p&gt;论文想要解决的问题是主动感知与混合行为。&lt;/p&gt;
&lt;p&gt;首先是如何通过视觉信息和触觉信息来感知世界；
然后是如何通过多模态信息来学习操作；&lt;/p&gt;
&lt;p&gt;基于RL构建的大部分方法都无法有效地利用利用有关对象和动作的物理知识，而且这些系统需要比人类多得多的训练数据来学习新模型或新任务，而且它们的泛化范围要小得多，鲁棒性也要差得多。&lt;/p&gt;
&lt;p&gt;给机器人的任务是玩Jenga这个游戏。&lt;/p&gt;
&lt;p&gt;对于这个任务，人类通过触摸积木并结合触觉和视觉感官来推断它们的交互来获取信息&lt;/p&gt;
&lt;p&gt;基于此，机器人通过视觉信息来学习有关塔的位置和当前区块排列的信息。&lt;/p&gt;
&lt;p&gt;以抽取的木条的数量作为评价指标；&lt;/p&gt;
&lt;p&gt;机器人知道每一个时间步下的机械手的位姿，物体的姿势和施加到物体上的力&lt;/p&gt;
&lt;p&gt;很多仿真系统中对于摩擦力的建模是很粗糙的，因此仿真到现实的gap是难以弥合的。&lt;/p&gt;
&lt;p&gt;触觉信息是间断的，很难与视觉信息对齐。在Jenga任务中，视觉信息和触觉信息互相补充。&lt;/p&gt;
&lt;p&gt;触觉反馈可以提供高分辨率的局部信息，以补充来自视觉的全局但粗略的信息。&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
