<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>MuJoCo on Xiong Jia</title>
        <link>https://Peraspera1.github.io/categories/mujoco/</link>
        <description>Recent content in MuJoCo on Xiong Jia</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <copyright>xj</copyright>
        <lastBuildDate>Sat, 08 Mar 2025 14:43:57 +0800</lastBuildDate><atom:link href="https://Peraspera1.github.io/categories/mujoco/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>SFA</title>
        <link>https://Peraspera1.github.io/p/sfa/</link>
        <pubDate>Sat, 08 Mar 2025 14:43:57 +0800</pubDate>
        
        <guid>https://Peraspera1.github.io/p/sfa/</guid>
        <description>&lt;img src="https://Peraspera1.github.io/images/SFA/cover.png" alt="Featured image of post SFA" /&gt;&lt;h1 id=&#34;论文信息&#34;&gt;论文信息
&lt;/h1&gt;&lt;h2 id=&#34;信息概览&#34;&gt;信息概览
&lt;/h2&gt;&lt;p&gt;&lt;strong&gt;Science Robotic 2019&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;论文题目：&lt;/strong&gt; See, feel, act: Hierarchical learning for complex manipulation skills with multisensory fusion&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;论文单位：&lt;/strong&gt; MIT&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;是否开源：&lt;/strong&gt; 否&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;总结：&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;文章要解决的一个核心问题是机器人如何像人类一样，结合视觉和触觉信息，高效学习复杂的物理操作技能，比如玩 Jenga（叠叠乐）？&lt;/p&gt;
&lt;h2 id=&#34;论文细节&#34;&gt;论文细节
&lt;/h2&gt;&lt;p&gt;分析：
这个问题可以从两个角度来解读：1 机器人需要边操作边感知，用触觉和视觉来推测积木状态，而不是仅靠视觉；2 机器人需要同时处理可移动和不可移动的积木，制定合适的策略来提取积木，而不让塔倒塌。传统机器人学习主要依赖视觉数据，缺乏触觉推理能力，导致它们需要大量数据才能学会基本操作。而基于强化学习方法需要大量训练数据，但由于Jenga游戏中的物理交互细节微妙，RL难以快速收敛。因此，文中给出的方法可以按照探索（Exploration）+ 学习（Learning）+ 决策（Decision Making）的框架来解决。&lt;/p&gt;
&lt;h3 id=&#34;探索&#34;&gt;探索
&lt;/h3&gt;&lt;p&gt;机器人随机选择一个积木并执行推的动作，并记录：积木的受力情况（触觉传感器），积木移动的位置和角度（摄像头），机器人末端执行器的参数（本体感知），塔的稳定性（由视觉观测），类似于人类玩Jenga时会试探性地推一下积木，看看它是否松动&lt;/p&gt;
&lt;h3 id=&#34;训练&#34;&gt;训练
&lt;/h3&gt;&lt;p&gt;论文提出了一种分层学习（hierarchical learning）方法；&lt;/p&gt;
&lt;p&gt;低层级：学习物理参数（如积木的受力情况、摩擦力、位移）&lt;/p&gt;
&lt;p&gt;高层级：归纳行为模式（如“积木可以移动” vs “积木被卡住”）&lt;/p&gt;
&lt;p&gt;&lt;img src=&#34;https://Peraspera1.github.io/images/SFA/images1.png&#34;
	
	
	
	loading=&#34;lazy&#34;
	
		alt=&#34;image&#34;
	
	
&gt;&lt;/p&gt;
&lt;p&gt;绿色集群表示机器人未与任何块接触的轨迹，特别是在轨迹开始时，测得的力可以忽略不计，并且块不会移动。灰色簇表示抵抗运动并被卡住的块，表现出较大的阻力并且几乎没有平移。蓝色簇表示相当容易移动的块（大位移）并且表现出可以忽略不计的阻力。黄色集群表示移动但对机器人提供有意义阻力的块。&lt;/p&gt;
&lt;p&gt;计算：积木是否容易被推动（基于力反馈）/积木是否松动（基于历史数据）/积木移动时的可能路径（基于视觉+力传感器）&lt;/p&gt;
&lt;p&gt;论文使用了贝叶斯神经网络（BNN, Bayesian Neural Network） 学习积木的力学行为模式，使机器人可以从少量数据中泛化：输入：推积木时的力+位移信息。输出：预测未来的受力情况和积木的运动轨迹。&lt;/p&gt;
&lt;h3 id=&#34;泛化&#34;&gt;泛化
&lt;/h3&gt;&lt;p&gt;机器人在每次推积木时，会先计算成功的概率。例如，如果积木之前被推过但没有动，机器人会降低推的力度或改变推的方向。&lt;/p&gt;
&lt;p&gt;然后执行贝叶斯更新（Bayesian Update）：机器人会随着每次操作更新对积木状态的信心。&lt;/p&gt;
&lt;p&gt;例如：机器人发现某个积木很难移动 → 更新其状态为“卡住”，减少未来的尝试。发现某个积木容易移动 → 优先尝试此类积木。&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;更多训练的细节：&lt;/strong&gt;
1 采用贝叶斯建模学习积木的物理属性；
2 用深度学习训练一个预测模型（输入力，预测积木的反应）；
3 机器人自监督学习，不断改进对积木状态的推测；&lt;/p&gt;
&lt;h2 id=&#34;思考&#34;&gt;思考
&lt;/h2&gt;&lt;p&gt;这个训练的框架也许有用，但应该仅限于摩擦力的框架，而且我对BNN并不太了解；&lt;/p&gt;
&lt;p&gt;估计摩擦力的框架到时可以借鉴？即输入物体的rgb图+末端执行器的位姿+施加力的大小和方向，然后先算一步先验(即初步估计的摩擦系数，就能简单的判断这个力是否能推动物体)再输入神经网络，得到物体下一时刻的位移。&lt;/p&gt;
&lt;h2 id=&#34;其他&#34;&gt;其他
&lt;/h2&gt;&lt;p&gt;论文提出了一种分层学习（hierarchical learning）方法，通过视觉和触觉融合，使机器人学习Jenga游戏中的操作技能&lt;/p&gt;
&lt;p&gt;论文想要解决的问题是主动感知与混合行为。&lt;/p&gt;
&lt;p&gt;首先是如何通过视觉信息和触觉信息来感知世界；
然后是如何通过多模态信息来学习操作；&lt;/p&gt;
&lt;p&gt;基于RL构建的大部分方法都无法有效地利用利用有关对象和动作的物理知识，而且这些系统需要比人类多得多的训练数据来学习新模型或新任务，而且它们的泛化范围要小得多，鲁棒性也要差得多。&lt;/p&gt;
&lt;p&gt;给机器人的任务是玩Jenga这个游戏。&lt;/p&gt;
&lt;p&gt;对于这个任务，人类通过触摸积木并结合触觉和视觉感官来推断它们的交互来获取信息&lt;/p&gt;
&lt;p&gt;基于此，机器人通过视觉信息来学习有关塔的位置和当前区块排列的信息。&lt;/p&gt;
&lt;p&gt;以抽取的木条的数量作为评价指标；&lt;/p&gt;
&lt;p&gt;机器人知道每一个时间步下的机械手的位姿，物体的姿势和施加到物体上的力&lt;/p&gt;
&lt;p&gt;很多仿真系统中对于摩擦力的建模是很粗糙的，因此仿真到现实的gap是难以弥合的。&lt;/p&gt;
&lt;p&gt;触觉信息是间断的，很难与视觉信息对齐。在Jenga任务中，视觉信息和触觉信息互相补充。&lt;/p&gt;
&lt;p&gt;触觉反馈可以提供高分辨率的局部信息，以补充来自视觉的全局但粗略的信息。&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
