要配置 SSH 免密登录(即使用 SSH 密钥认证),可以按照以下步骤操作:


假设环境

  • 本地主机(Client) :你当前使用的电脑
  • 远程服务器(Server) :你要免密登录的目标机器
  • 用户名user
  • 服务器 IP192.168.1.100

阅读全文 »

查看sudo权限

查看所有可登陆的用户

1
awk -F: '$7 ~ /(bash|sh)/ {print $1}' /etc/passwd

查看当前在线的用户

1
who

查看某个用户(如alice)是否有sudo权限

1
groups alice
  • 如果有会显示:
1
alice : alice sudo
  • 如果没有会显示:
1
alice : alice

接下来给该用户添加sudo权限。

阅读全文 »

Miniconda3 Linux安装教程

Miniconda是一个轻量级的Anaconda发行版,它允许用户安装和管理多个Python环境。以下是在Linux系统中安装Miniconda3的步骤:

阅读全文 »

设置Dock栏自动隐藏的触发速度

Dock 显示和隐藏速度,系统默认设置成了1秒

通过终端.APP修改显示和隐藏的时间 (单位:秒)

  • 默认的:
1
defaults write com.apple.dock autohide-delay -int 1
  • 优化的:
1
2
3
4
5
6
7
defaults write com.apple.dock autohide-delay -int 0.8  

defaults write com.apple.dock autohide-delay -int 0.6  

defaults write com.apple.dock autohide-delay -int 0.5  

defaults write com.apple.dock autohide-delay -int 0

所有操作执行完后需要执行:

1
killall Dock
阅读全文 »

项目地址:
VLM: https://gitee.com/feng-xie-yi/vlm_car
RL: https://gitee.com/momaoto/rl-locomotion-mujoco

项目信息

选题思路

现有跨形态机器人控制需为不同硬件单独设计策略,开发成本高且泛化性差。本课题尝试使用语言指令统一接口,用户用自然语言指挥不同形态机器人完成同一任务,通过分层强化学习框架,高层视觉语言模型(VLM)解析任务生成中间指令,再通过低层强化学习策略适配不同形态的底层动作,通过仿真器快速训练跨形态通用策略,最后部署到真机运行。

阅读全文 »

第一篇

一个具身智能体的行动可以分为“感知-决策-行动-反馈”四个步骤,分别由四个模块完成,并形成一个闭环。

  • 感知:传感器,用于获取环境信息,如雷达、深度相机、麦克风。
  • 决策:“大模型”,输入目标与指令,输出决策指令(导航路线、动作序列等)。
    • VLA:Vision-Language-Action,输出动作
    • VLN:Vision-Language-Nevigation,输出路线
  • 行动:三种思路:
    • 决策调用行动:行动被写成算法以供决策模块调用,缺点泛化能力差
    • 决策与行动协同:行动的同时获取实时信息,使决策不断优化,缺点吃算力
    • 决策与行动融合:端到端,利用多模态技术发展直接从感知推理出环境变化,以及相应的动作序列。是未来发展的方向。优点泛化能力强,通用。
  • 反馈:为上述每一个环节提供反馈。

环境

1. ERROR: Could not build wheels for opencv-python which use PEP 517 and cannot be installed directly

安装opencv-python时出现,伴随scikit-build could not get a working generator for your system. Aborting build.
解决:升级pip到最新版即可python -m pip install --upgrade pip

阅读全文 »
0%