色哟哟视频在线观看-色哟哟视频在线-色哟哟欧美15最新在线-色哟哟免费在线观看-国产l精品国产亚洲区在线观看-国产l精品国产亚洲区久久

0
  • 聊天消息
  • 系統消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術視頻
  • 寫文章/發帖/加入社區
會員中心
創作中心

完善資料讓更多小伙伴認識你,還能領取20積分哦,立即完善>

3天內不再提示

大象機器人水星MercuryX1輪式人形機器人基于物體標記建模的鍵盤點按操作!

大象機器人科技 ? 來源:大象機器人科技 ? 作者:大象機器人科技 ? 2024-08-06 09:34 ? 次閱讀

引言
在現代科技的推動下,機器人在日常生活和工作場景中的應用越來越廣泛。本文將介紹MercuryX1,這款先進的機器人如何通過其手臂末端的攝像頭識別并確定鍵盤的鍵位,從而進行精確的打字操作。通過這一案例,我們將展示MercuryX1在自動化辦公領域的潛力,以及其在提升效率和減少人為錯誤方面的顯著優勢。

接下里跟隨我們的腳步,我們先簡單的介紹一下使用到的產品

Product
Mercury X1
水星Mercury X1是一款輪式人形機器人,整體由水星Mercury B1和高性能移動底座組合而成,擁有19個自由度。其單臂為7自由度的類人手臂結構機械臂。整機配備了英偉達Jetson Xavier主控。

移動底座具備豐富的感知能力,包括高性能激光雷達、超聲波傳感器和2D視覺傳感器。其直驅電機驅動系統使其最大運行速度可達1.2m/s,最大爬坡高度為2CM,最大爬坡角度為15度。整機最大續航時間高達8小時。

此外,Mercury X1支持包括ROS、Moveit、Gazebo和Mujoco等主流仿真軟件,提升了機器人智能的自主學習和快速迭代能力。

myCobot Pro Adaptive Gripper
是Mercury X1適配的自適應夾爪,提供較大的加持力,和標準的M8航空插頭接口

wKgaomawSg-AKi5NAAFVsqhrYDQ673.pngwKgZomawSiGALOtzAAKWeeUHT-Q811.png

Camera Flange
適配于Mercury X1的攝像頭模組可以安裝在機械臂雙臂的末端,并搭配夾爪使用。通過攝像頭,實際獲取物體的相關信息,并利用這些數據進行機器視覺識別算法處理。通過USB接口,數據被傳輸到Jetson Nano主控進行進一步處理。

wKgaomawSiyAc5pgAAMVdMx1Zk0943.pngwKgZomawSjSABmkiAAQ1MX7WccU062.png

技術要點
接下來介紹在項目中使用到的技術點。

pymycobot
pymycobot是Elephant Robotics專為其機械臂產品設計的控制庫。通過該庫,用戶可以方便快捷地調用API,以實現對機器人的精確控制和操作。pymycobot提供了豐富的功能接口,簡化了編程流程,使開發者能夠專注于應用開發。

pymycobot · PyPI

wKgaomawSkqAcomcAAGdxRkTDis914.png

OpenCV
OpenCV是一個開源的計算機視覺庫。通過該庫,用戶可以方便快捷地調用各種圖像處理和計算機視覺的API,以實現圖像識別、對象檢測和圖像轉換等操作。OpenCV提供了豐富的功能接口,簡化了開發流程,使開發者能夠專注于應用實現。

OpenCV - Open Computer Vision Library

wKgZomawSlaAIfMSAADyQ_Fzk5Y581.png

Stag
STag是一種穩定的標記碼,廣泛應用于計算機視覺和機器人定位領域。通過STag,用戶可以實現可靠的物體識別和追蹤。STag提供了穩健的性能和易于集成的接口,簡化了開發者在定位和識別任務中的工作。

GitHub - bbenligiray/stag: STag: A Stable Fiducial Marker System

wKgaomaxfHKAYWyKABDVuHQfu6o851.png

Project
整個項目最主要的功能就機械臂運動控制,機械臂的手眼標定(坐標系的轉化)和機器的視覺識別。我們先來介紹最重要的機器視覺識別。

機器視覺識別
想要讓X1進行打字,那么它肯定得認識鍵盤,機器人咋可能自己就認識鍵盤呢,所以我們要教他認識鍵盤,并且告訴他那個鍵在哪個位置。這就用到了STag和OpenCV,STag的標記碼能夠確定鍵盤的位置,并且反饋坐標參數

下面這段代碼實現是,刷新相機界面獲取實時畫面,來檢測STag碼的位置

def stag_identify_loop(self):
       while True:
           self.camera.update_frame()  # 刷新相機界面
           frame = self.camera.color_frame()  # 獲取當前幀
           (corners, ids, rejected_corners) = stag.detectMarkers(frame, 11)  # 獲取畫面中二維碼的角度和id
           marker_pos_pack = self.calc_markers_base_position(corners, ids)  # 獲取物的坐標(相機系)
           print("Camera coords = ", marker_pos_pack)
           cv2.imshow("按下鍵盤任意鍵退出", frame)
           # cv2.waitKey(1)
           # 按下鍵盤任意鍵退出
           if cv2.waitKey(1) & 0xFF != 255:
               break


兩個STag碼是為了確定位置,在用draw在圖中畫出鍵盤的位置,在這里需要考慮兩個手的情況,當然如果單臂也是能完成的但是我們是要模擬人打字的,左手負責左邊的區域,右手負責右邊的區域。

def draw(frame, arm):
   global per_right_corners, per_left_corners
   # 將圖片灰度
   imGray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
   # 獲取圖片中二維碼的角點
   (corners, ids, rejected_corners) = stag.detectMarkers(imGray, 11)
   # 通過角點獲取,二維碼相對于相機的位移、旋轉向量
   marker_pos_pack = calc_markers_base_position(corners, ids, marker_size, mtx, dist)
   if arm == "left":
       # 獲取當前機械臂末端坐標
       stag_cur_coords = np.array(ml.get_base_coords())
       stag_cur_bcl = stag_cur_coords.copy()
       stag_cur_bcl[-3:] *= (np.pi / 180)
       # 通過手眼矩陣獲取二維碼相對于機械臂基座的坐標
       stag_fact_bcl = Eyes_in_hand(stag_cur_bcl, marker_pos_pack, "left")
       stag_coord = stag_cur_coords.copy()
       stag_coord[0] = stag_fact_bcl[0]
       stag_coord[1] = stag_fact_bcl[1]
       stag_coord[2] = stag_fact_bcl[2]
       # 存入二維碼的三維坐標
       keyboard_coords[","] = stag_coord
   else:
       # 獲取當前機械臂末端坐標
       stag_cur_coords = np.array(mr.get_base_coords())
       stag_cur_bcl = stag_cur_coords.copy()
       stag_cur_bcl[-3:] *= (np.pi / 180)
       # 通過手眼矩陣獲取二維碼相對于機械臂基座的坐標
       stag_fact_bcl = Eyes_in_hand(stag_cur_bcl, marker_pos_pack, "right")
       stag_coord = stag_cur_coords.copy()
       stag_coord[0] = stag_fact_bcl[0]
       stag_coord[1] = stag_fact_bcl[1]
       stag_coord[2] = stag_fact_bcl[2]
       # 存入二維碼的三維坐標
       keyboard_coords["."] = stag_coord
   # 通過角點獲取,二維碼相對于相機的位移、旋轉向量
   rvecs, tvecs = solve_marker_pnp(corners, marker_size, mtx, dist)
   # 畫出坐標系
   cv2.drawFrameAxes(frame, mtx, dist, rvecs, tvecs, 50)
   draw_img = frame

   x1 = corners[0][0][0][0]
   y1 = corners[0][0][0][1]
   x2 = corners[0][0][1][0]
   y2 = corners[0][0][1][1]

   x = x1 - x2
   y = y1 - y2
   # 根據兩個交點之間連線的角度獲取偏轉角
   r = np.arctan(y / x)
   r = abs(r)
   # 獲取兩個角點之間的距離
   size = abs(x / np.cos(r))
   # 左臂攝像頭兩個按鍵x軸之間的距離
   left_x_dis = size * 1.3
   # 左臂攝像頭兩個按鍵y軸之間的距離
   left_y_dis = size * 1.35
   # 右臂攝像頭兩個按鍵x軸之間的距離
   right_x_dis = size * 1.3
   # 右臂攝像頭兩個按鍵y軸之間的距離
   right_y_dis = size * 1.35
   # 按鍵框的半徑
   rad = int(size / 2)
   # 左臂攝像頭x軸與第一個字母的偏移距離
   left_add_x = [size * 1.25]
   # 左臂攝像頭y軸各行與第一個字母的偏移距離
   left_add_y = [-size * 2, -size * 2.3, -size * 3]
   # 右臂攝像頭x軸與第一個字母的偏移距離
   right_add_x = [size * 1.3]
   # 右臂攝像頭y軸各行與第一個字母的偏移距離
   right_add_y = [size * 4.1, size * 2.1, size * 1]
   # 獲取按鍵框的中心點
   tray_frame = Path(corners[0][0])
   tray_frame_center_plot = tray_frame.vertices.mean(axis=0)

隨后就是通過算法來確定每個鍵位的坐標如何計算的問題了。將圈選出來的鍵位存入數組當中,規定左手負責的區域,規定右手負責的區域

   # 左臂鍵盤布局
   left_keyboard_txt = [
       ["q", "w", "e", "r", "t", "y", "u", "i", "o", "p"],
       ["a", "s", "d", "f", "g", "h", "j", "k", "l"],
       ["z", "x", "c", "v", "b", "n", "m"]
   ]
   # 右臂鍵盤布局
   right_keyboard_txt = [
       ["m", "n", "b", "v", "c", "x", "z"],
       ["l", "k", "j", "h", "g", "f", "d", "s", "a"],
       ["p", "o", "i", "u", "y", "t", "r", "e", "w", "q"],
   ]
   # 左臂點按的字母
   left_control = ["q", "w", "e", "r", "t",
                   "a", "s", "d", "f", "g",
                   "z", "x", "c", "v", ","]
   # 左臂點按的字母
   right_control = ["y", "u", "i", "o", "p",
                    "h", "j", "k", "l",
                    "b", "n", "m", "."]

這樣X1就能夠知道鍵盤是什么,以及相對應的鍵位在哪里了,接下來就要解決的是機械臂的手眼標定的問題了,需要將目標的物體的坐標系和機械臂末端的坐標系轉化到同一個坐標系當中去。

手眼標定-眼在手中
1. 標記檢測

使用相機捕獲圖像,并檢測STag標記,獲取到標記碼的三維坐標。調用 solve_marker_pnp 計算標記在相機坐標系中的位置和方向。

def calc_markers_base_position(corners: NDArray, ids: T.List, marker_size: int, mtx: NDArray, dist: NDArray) -> T.List:
   if len(corners) == 0:
       return []
   rvecs, tvecs = solve_marker_pnp(corners, marker_size, mtx, dist)
   res = []
   for i, tvec, rvec in zip(ids, tvecs, rvecs):
       tvec = tvec.squeeze().tolist()
       rvec = rvec.squeeze().tolist()
       rotvector = np.array([[rvec[0], rvec[1], rvec[2]]])
       Rotation = cv2.Rodrigues(rotvector)[0]
       Euler = CvtRotationMatrixToEulerAngle(Rotation)
       cam_coords = tvec + rvec
       target_coords = cam_coords
   return target_coords


2. 坐標轉換

將標記的旋轉向量轉換為旋轉矩陣,再轉換為歐拉角,以便于進一步的計算和分析,組合平移向量和旋轉向量,得到目標坐標。

cv2.Rodrigues 函數用于在旋轉向量和旋轉矩陣之間進行轉換。這個函數將旋轉向量轉換為旋轉矩陣,或者將旋轉矩陣轉換為旋轉向量。

rotvector = np.array([[rvec[0], rvec[1], rvec[2]]])
Rotation = cv2.Rodrigues(rotvector)[0]

#歐拉角和旋轉矩陣的相互轉換
def CvtRotationMatrixToEulerAngle(pdtRotationMatrix):
   pdtEulerAngle = np.zeros(3)
   pdtEulerAngle[2] = np.arctan2(pdtRotationMatrix[1, 0], pdtRotationMatrix[0, 0])
   fCosRoll = np.cos(pdtEulerAngle[2])
   fSinRoll = np.sin(pdtEulerAngle[2])
   pdtEulerAngle[1] = np.arctan2(-pdtRotationMatrix[2, 0], (fCosRoll * pdtRotationMatrix[0, 0]) + (fSinRoll * pdtRotationMatrix[1, 0]))
   pdtEulerAngle[0] = np.arctan2((fSinRoll * pdtRotationMatrix[0, 2]) - (fCosRoll * pdtRotationMatrix[1, 2]), (-fSinRoll * pdtRotationMatrix[0, 1]) + (fCosRoll * pdtRotationMatrix[1, 1]))
   return pdtEulerAngle

def CvtEulerAngleToRotationMatrix(ptrEulerAngle):
   ptrSinAngle = np.sin(ptrEulerAngle)
   ptrCosAngle = np.cos(ptrEulerAngle)
   ptrRotationMatrix = np.zeros((3, 3))
   ptrRotationMatrix[0, 0] = ptrCosAngle[2] * ptrCosAngle[1]
   ptrRotationMatrix[0, 1] = ptrCosAngle[2] * ptrSinAngle[1] * ptrSinAngle[0] - ptrSinAngle[2] * ptrCosAngle[0]
   ptrRotationMatrix[0, 2] = ptrCosAngle[2] * ptrSinAngle[1] * ptrCosAngle[0] + ptrSinAngle[2] * ptrSinAngle[0]
   ptrRotationMatrix[1, 0] = ptrSinAngle[2] * ptrCosAngle[1]
   ptrRotationMatrix[1, 1] = ptrSinAngle[2] * ptrSinAngle[1] * ptrSinAngle[0] + ptrCosAngle[2] * ptrCosAngle[0]
   ptrRotationMatrix[1, 2] = ptrSinAngle[2] * ptrSinAngle[1] * ptrCosAngle[0] - ptrCosAngle[2] * ptrSinAngle[0]
   ptrRotationMatrix[2, 0] = -ptrSinAngle[1]
   ptrRotationMatrix[2, 1] = ptrCosAngle[1] * ptrSinAngle[0]
   ptrRotationMatrix[2, 2] = ptrCosAngle[1] * ptrCosAngle[0]
   return ptrRotationMatrix

#合并旋轉和平移向量
cam_coords = tvec + rvec
target_coords = cam_coords

他們本身不是一個世界的人,現在強行轉化到一個世界里,就能夠互相知道在哪里了!這樣就能夠直接獲取到鍵盤鍵位的result了 。

機械臂的運動控制
當我們有了目標物體的坐標之后,就到我們的X1閃亮登場了,開始執行運動,這里我們用到pymycobot來控制機械臂運動。

   r是右手的控制,l是左手的控制
   mr = Mercury("/dev/ttyACM0")
   ml = Mercury("/dev/ttyTHS0")
   #發送角度位置和速度給機械臂,
   mr.send_angles(mr_pos, sp)
   ml.send_angles(ml_pos, sp)
   #發送坐標和速度給機械臂
   mr.send_coords(mr_pos, sp)
   ml.send_coords(ml_pos, sp)


就是將目標的坐標傳遞給機械臂去運動,就能實現打字了,我們一起來看看運動的效果如何。

總結
通過本文,我們詳細介紹了Mercury X1輪式人形機器人在打字任務中的應用實例。Mercury X1憑借其19自由度的靈活結構、豐富的感知能力和高性能的控制系統,展示了在自動化辦公領域的巨大潛力。結合適配的攝像頭模組和先進的機器視覺算法,Mercury X1能夠精準識別并操作鍵盤,顯著提升了工作效率和準確性。隨著技術的不斷進步,我們期待Mercury X1在更多領域展現其卓越的性能,為智能自動化帶來更多可能性。

審核編輯 黃宇

聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。 舉報投訴
  • 機器人
    +關注

    關注

    211

    文章

    28607

    瀏覽量

    207884
  • 開源
    +關注

    關注

    3

    文章

    3393

    瀏覽量

    42624
  • 機械臂
    +關注

    關注

    12

    文章

    518

    瀏覽量

    24660
  • 人形機器人
    +關注

    關注

    2

    文章

    487

    瀏覽量

    16717
收藏 人收藏

    評論

    相關推薦

    輪式機器人

    我是新人,求幫助啊,明天需要提交輪式機器人應用的報告,求大神給點建議,可用輪式機器人應用于那些方面,要求實際可行,應用于生活,農業,軍事都可以,謝謝啦
    發表于 04-17 16:32

    為什么人形機器人更討人喜歡?

    。相比之下,人形機器人(又稱“仿人機器人”或“類人機器人”)比那些非人形機器人更討人喜歡。從心理
    發表于 05-12 09:55

    桁架機器人核心配件介紹

    桁架機器人核心配件介紹1.控制器在數控機床機器人控制器方面,目前通用的多軸控制器平臺主要分為以嵌入處理器(DSP,POWERPC)為核心的運動控制卡和以工控機加實時系統為核心的PLC
    發表于 11-22 12:08

    機器人基礎書籍

    列舉部分學習過程中接觸的部分書籍,部分有中文版,部分有更新版本。1.機器人基礎書籍適合入門的書籍:機器人機器人建模規劃與控制
    發表于 05-22 06:53

    機器人接觸物體探測的接觸方式有哪些?

    機器人接觸物體探測技術電路設計
    發表于 03-02 11:06

    基于TRIZ輪式機器人驅動輪的研究

    基于TRIZ輪式機器人驅動輪的研究 根據亞太機器人大賽規則,要求機器人車輪與地面有較大的摩擦力,以保證機器人在規定的時間內完成比賽任務。文中
    發表于 09-13 07:12

    六足機器人輪式移動方式的優勢

    科學技術發展和人類社會進步的需要。地形不規則和崎嶇不平是這些環境的共同特點。從而使輪式機器人和履帶機器人的應用受到限制。以往的研究表明輪式
    發表于 09-13 06:47

    機器人是什么?

    自主機器人。這些都是機器人的智能藝術。除了這個被廣泛接受的分類,機器人可以根據它們的運動方式和工作環境進行分類,如輪式機器人、腿
    發表于 03-31 10:31

    【開發教程1人形街舞機器人-套件檢測教程

    多自由度人形雙足舞蹈機器人套件檢測教程——機器人開發系列配套資料:https://www.fengke.club/GeekMart/su_fV1WzKsGQ.jsp 配套視頻:http
    發表于 04-22 14:14

    【教程1人形街舞機器人-套件檢測教程

    多自由度人形雙足舞蹈機器人——瘋殼·機器人開發系列套件檢測教程內容簡介本文檔主要介紹在如何驗證多自由度人形雙足街舞機器人套件正常,包括具體線
    發表于 08-12 15:55

    輪式機器人怎么樣

    ,人類友好型機器人開始在實體店進行實時盤點,這使得超市能夠減少每種產品的貨架空間,并增加給定時間內可以攜帶的庫存量。輪式機器人甚至可以進軍賓館,提供從入住到客房服務的接待服務。 對于這
    發表于 11-09 07:49

    ?大象機器人首發萬元級水星Mercury人形機器人系列

    水星Mercury機器人系列共有三款產品:水星Mercury A1 七軸協作機械臂和水星Mercury B
    發表于 01-03 09:59 ?321次閱讀
    ?<b class='flag-5'>大象</b><b class='flag-5'>機器人</b>首發萬元級<b class='flag-5'>水星</b>Mercury<b class='flag-5'>人形</b><b class='flag-5'>機器人</b>系列

    技術融合與創新大象機器人水星Mercury X1人形機器人案例研究!

    引言 在科技迅速發展的當下,人形機器人正變得日益重要,其應用范圍從工業自動化到服務業不斷擴展。本文將通過Mercury X1大象人形機器人
    的頭像 發表于 04-28 14:18 ?629次閱讀
    技術融合與創新<b class='flag-5'>大象</b><b class='flag-5'>機器人</b><b class='flag-5'>水星</b>Mercury X<b class='flag-5'>1</b><b class='flag-5'>人形</b><b class='flag-5'>機器人</b>案例研究!

    大象機器人完成Pre-B融資,致力打造全新機器人生態!

    近日,深圳市大象機器人科技有限公司(以下簡稱「大象機器人」)近日完成Pre-B融資,本輪融資由清輝投資領投、云卓資本跟投,資金將用于
    的頭像 發表于 05-22 14:46 ?952次閱讀

    七騰機器人:防爆輪式機器人-四八驅全新上線

    今日,七騰機器人有限公司(以下簡稱“七騰機器人”)推出全新產品:防爆輪式機器人-四八驅。該款產品是七騰
    的頭像 發表于 10-21 16:32 ?221次閱讀
    七騰<b class='flag-5'>機器人</b>:防爆<b class='flag-5'>輪式</b><b class='flag-5'>機器人</b>-四<b class='flag-5'>輪</b>八驅全新上線
    主站蜘蛛池模板: 俄罗斯6一12呦女精品| 国产 亚洲 中文字幕 在线| 潮 喷女王cytherea| 免费观看男生桶美女私人部位| 亚洲熟妇无码乱子AV电影| 国产欧美日韩网站| 亚洲AV精品一区二区三区不卡| 国产精品色无码AV在线观看| 无码区国产区在线播放| 日韩欧美中文字幕一区| FERRCHINA内入内射| 国产三级级在线电影| 婷婷亚洲五月色综合久久| 浴室里强摁做开腿呻吟的漫画男男 | 日韩精品特黄毛片免费看| 超碰人热人人热人人看| 色综合伊人色综合网站| 国产精品无码麻豆放荡AV| 亚洲狠狠97婷婷综合久久久久| 狠狠久久免费视频在线| 少妇无套内谢久久久久| 国产精品久久久久久精品...| 亚州AV中文无码乱人伦在线| 国内卡一卡二卡三免费网站| 伊人久久网站| 欧美亚洲曰韩一本道| 18动漫在线观看| 国产在线视精品在亚洲| 亚洲日本欧美国产在线视| 久久精品亚洲热综合一本| 98久久无码一区人妻A片蜜| 日本国产成人精品无码区在线网站 | 精品午夜寂寞影院在线观看| 中文字幕精品在线视频| 日本福利片午夜免费观着| 国产亚洲精品久久久久久入口| 色综合久久88色综合天天提莫| 国产午夜精品福利久久| 2022国产精品不卡a| 婷婷射精AV这里只有精品| 久久久久久久久性潮|