日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

(三)手眼标定结果的应用

發布時間:2023/12/31 编程问答 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 (三)手眼标定结果的应用 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

記錄自己手眼標定(眼在手上)結果的應用過程,本人使用的是2D相機。

內容

  • 1.核心公式
    • 1.1 命名規定
    • 1.2 歐拉角、四元數、旋轉矩陣的關系
    • 1.3 公式
  • 2.手眼標定的運算法則和對應的物理意義
  • 3.場景需求
    • 3.1 目標(aruco標記圖)在水平面上不動,指定機械臂末端運動到目標上方的固定距離
    • 3.2 上小節中是相機識別到了目標,將機械臂移動到指定目標上方的固定高度位置。當前場景是不斷更換目標位姿,但仍要求機械臂移動到指定目標上方的固定距離位置,且位置和姿態都要和目標同步
      • 3.2.1 公式
      • 3.2.2 計算過程
      • 3.2.3 執行步驟

1.核心公式

1.1 命名規定


??表示以base(機器臂基底)為基準,end(機械臂末端)在其下的位姿描述,即機械臂末端坐標系到機械臂基底坐標系的變換矩陣。
(本文所有公式中的變量都以這個為標準,有的資料中寫的和這個相反,容易記混了,注意哪個是基準就行。)

1.2 歐拉角、四元數、旋轉矩陣的關系

??關于這幾個的關系轉換如下圖所示,在之后的計算中,需要頻繁進行轉換。

1.3 公式


??上面是三個4×4的矩陣相乘,得到的結果就是在機械臂基底坐標系base下,識別到的目標target的位姿。計算結果仍然是個4×4矩陣,包含一個旋轉矩陣+一個平移向量,將旋轉矩陣轉為歐拉角,再通過運動學逆解計算將歐拉角轉為6個關節角度值,將這6個值輸入到示教器中,即可將機械臂末端運動到當前目標在基底下的位姿狀態。
??(PS:如果直接輸入X、Y、Z、RX、RY、RZ可能會得到好幾種不同的關節角度值,雖然它們的位置和歐拉角都相同,萬一解出一個值機器人會撞到工作平面,所以需要我們通過運動學逆解直接輸入關節角值,來避免這種情況。)

上式中各個參數的含義和計算方法

  • 1.T:變換矩陣,由旋轉矩陣(3×3)和平移向量(3×1)組成,在旋轉矩陣下面加一行[0, 0, 0, 1]構成齊次矩陣;格式如下:
  • 2.
    ??這個值由示教器面板直接讀取或通過示教器的SDK獲取,但獲得的位姿形式是(X、Y、Z、RX、RY、RZ),需要將其轉換為旋轉矩陣R和平移向量t,然后再拼接為齊次矩陣(4×4),將歐拉角(RX、RY、RZ)轉為旋轉矩陣,這里要注意歐拉角的排列順序(機械臂的位姿類型有zyx,yzx,zxy,yxz,xyz,xzy幾種,需要區分),之后再和平移向量(XYZ)進行拼接。
舉例:獲取到當前機器人的位姿(m,弧度)和6個關節角(弧度) (X、Y、Z、RX、RY、RZ)->0.243749, 0.508627, 0.369233, -3.136813, 0.000506, 2.746928) 關節角:(J1、J2、J3、J4、J5、J6)->1.341016-0.1939951.5388160.1521831.5710310.166330// 歐拉角轉換為旋轉矩陣 cv::Mat eulerAngleToRotateMatrix(const cv::Mat& eulerAngle, const std::string& seq) {cv::Matx13d m(eulerAngle); //<double, 1, 3>auto rx = m(0, 0), ry = m(0, 1), rz = m(0, 2);auto rxs = sin(rx), rxc = cos(rx);auto rys = sin(ry), ryc = cos(ry);auto rzs = sin(rz), rzc = cos(rz);//XYZ方向的旋轉矩陣cv::Mat RotX = (cv::Mat_<double>(3, 3) << 1, 0, 0,0, rxc, -rxs,0, rxs, rxc);cv::Mat RotY = (cv::Mat_<double>(3, 3) << ryc, 0, rys,0, 1, 0,-rys, 0, ryc);cv::Mat RotZ = (cv::Mat_<double>(3, 3) << rzc, -rzs, 0,rzs, rzc, 0,0, 0, 1);//按順序合成后的旋轉矩陣cv::Mat rotMat;if (seq == "zyx") rotMat = RotX * RotY * RotZ;else if (seq == "yzx") rotMat = RotX * RotZ * RotY;else if (seq == "zxy") rotMat = RotY * RotX * RotZ;else if (seq == "yxz") rotMat = RotZ * RotX * RotY;else if (seq == "xyz") rotMat = RotZ * RotY * RotX;else if (seq == "xzy") rotMat = RotY * RotZ * RotX;else{cout<< "Euler Angle Sequence string is wrong..." << endl;}return rotMat; }cv::Mat_<double> CalPose = (cv::Mat_<double>(1, 6) << 0.243749, 0.508627, 0.369233, -3.136813, 0.000506, 2.746928); cv::Mat T_end2base; T_end2base = attitudeVectorToMatrix(CalPose.row(0), false, "xyz"); 上面的位姿轉換為: T_end2base: [-0.9231254383299377, 0.3844964842228446, -0.001370667148604696, 0.243749;0.3844985943695793, 0.923114082176005, -0.004606757663443459, 0.5086270000000001;-0.000505999978407631, -0.004779634779333107, -0.9999884494609915, 0.369233;0, 0, 0, 1]
  • 3.
    ??這是手眼標定的結果。

關于手眼標定,參考:https://blog.csdn.net/qq_45445740/article/details/122170029

舉例:T_cam2end: [-0.99798, 0.0607526, -0.0185534, -0.017052;-0.0603958, -0.997989, -0.0192232, 0.132618;-0.019684, -0.0180638, 0.9996429, -0.026936;0, 0, 0, 1]
  • 4.
    ??根據自己選擇的目標放在相機視野內進行拍照識別,我選擇的是對aruco標記圖進行識別,會得到目標(標記圖)在相機坐標系下的位姿(X、Y、Z、w、x、y、z),需要將后面的四元數轉為旋轉矩陣,再和前面的(X、Y、Z)組成齊次矩陣。

四元數->旋轉矩陣,參考:https://zhuanlan.zhihu.com/p/45404840

舉例: aruco的識別結果: Find Board! (X、Y、Z、w、x、y、z)->-0.00257137, -0.0155088, 0.779451, 0.0245001, -0.702148, 0.711493, -0.0128749// 將四元數轉換為旋轉矩陣 // 歸一化的四元數: q = q0 + q1 * i + q2 * j + q3 * k; // q0=w, q1=x, q2=y, q3=z cv::Mat quaternionToRotatedMatrix(const cv::Vec4d& q) {double q0 = q[0], q1 = q[1], q2 = q[2], q3 = q[3];double q0q0 = q0 * q0, q1q1 = q1 * q1, q2q2 = q2 * q2, q3q3 = q3 * q3;double q0q1 = q0 * q1, q0q2 = q0 * q2, q0q3 = q0 * q3;double q1q2 = q1 * q2, q1q3 = q1 * q3;double q2q3 = q2 * q3;//根據公式得來cv::Mat RotMtr = (cv::Mat_<double>(3, 3) << (1 - 2 * (q2q2 + q3q3)), 2 * (q1q2 - q0q3), 2 * (q1q3 + q0q2),2 * (q1q2 + q0q3), 1 - 2 * (q1q1 + q3q3), 2 * (q2q3 - q0q1),2 * (q1q3 - q0q2), 2 * (q2q3 + q0q1), (1 - 2 * (q1q1 + q2q2)));return RotMtr; }四元數->旋轉矩陣結果: [-0.01277610419802011, -0.99851590125302, 0.052943469869;-0.99977764660298, 0.01364484609198002, 0.0160845899782;-0.0167831287282, -0.052726194881, -0.9984682059060002]T_target2cam: [-0.01277610419802011, -0.99851590125302, 0.052943469869, -0.002571;-0.99977764660298, 0.01364484609198002, 0.0160845899782, -0.015509;-0.0167831287282, -0.052726194881, -0.9984682059060002, 0.779451;0, 0, 0, 1]

2.手眼標定的運算法則和對應的物理意義

參考:https://zhuanlan.zhihu.com/p/388952714

3.場景需求

??前提都是水平面上的目標移動,非水平面的還沒做。。。若有大佬做過的迫切希望得到指導。

3.1 目標(aruco標記圖)在水平面上不動,指定機械臂末端運動到目標上方的固定距離

??PS:這里我沒有直接將機械臂末端直接移動到目標點這個位置,因為我沒有在機械臂末端加裝機械手或者相關示教工具,所以想讓機械臂末端運動到一個相對的位置。

??思路:通過上面的手眼標定結果應用的公式,計算得出aruco標記圖在機械臂基底坐標系下的位姿T_target2base,假設我現在想讓機械臂末端運動到aruco標記圖的正上方500mm處,只需要將T_target2base中的平移向量(X、Y、Z)中的Z軸方向加上500mm得到新的(X、Y、Z’)。
??
??由于識別到的結果是aruco標志圖相對于機械臂基底的位置和姿態,而我現在輸入到機械臂中的是將機械臂末端移動到aruco標志圖上500mm的指定位置,所以需要的是機械臂末端相對于基底的坐標,于是直接在示教器輸入上面中的指定點相對于基底的位置(X、Y、Z’),姿勢(歐拉角RX、RY、RZ)還使用原來機械臂末端到機械臂基底的姿勢就行。
??
??輸入(X、Y、Z’、RX、RY、RZ),獲取當前機械臂相對于基底的6個關節角值(J1、J2、J3、J4、J5、J6,通過SDK中的 impl->getRobotState()->getJointPositions()接口獲得),再經過運動學逆解,得出移動到指定點所需要的6個關節角值,最后輸入到機械臂中,即可將機械臂末端運動到目標上方的固定距離500mm處。(此時只是將機械臂末端移動到了目標上方的指定高度位置,位姿和目標卻不同步。)

3.2 上小節中是相機識別到了目標,將機械臂移動到指定目標上方的固定高度位置。當前場景是不斷更換目標位姿,但仍要求機械臂移動到指定目標上方的固定距離位置,且位置和姿態都要和目標同步

3.2.1 公式


??參數含義

  • target:表示相機識別到的目標,這里我用的是aruco標記圖。
  • wp:工作點(waypoint),可以是指定目標上方固定距離的一個點,也可以是機械臂末端加裝夾爪或者工具的位置點(上小節中我這里的工作點用的是法蘭中心即機械臂末端),這個點根據實際需要自行定義。
  • T_target2base:目標坐標系到機械臂基底坐標系的變換矩陣,這是手眼標定的應用結果,即三個4×4矩陣相乘的結果。
  • T_wp2target:工作點坐標系到目標坐標系的變換矩陣,這是你指定要運動到以目標為基準的固定點。
  • T_wp2base:工作點坐標系到機械臂基底坐標系的變換矩陣,這是輸入到機械臂中的數值。

3.2.2 計算過程

3.2.3 執行步驟

  • ①相機固定在機械臂末端,將目標擺正置于相機的視野內,設置好固定高度值H。
  • ②按照3.1的方法,先將機械臂末端移動到目標上方H高度的位置。
  • ③再通過3.2中的方法,算出T_wp2target,該值是不變的,表示無論目標的位置和姿態如何改變,始終是移動到目標上方高度H的位置,這個點是跟隨目標變化而變化的。
  • ④將機械臂恢復到初始位姿,再次改變目標的位姿,然后對目標進行識別,得到T_target2cam_new,根據1.3中的公式重新計算得到T_target2base_new = T_end2base * T_cam2end * T_target2cam_new,再根據3.2.1中的公式得出T_wp2base_new = T_target2base_new * T_wp*target,將這結果轉化為六個關節角值輸入到示教器中,此時機械臂末端會再次移動到新擺放的目標上方高度H的位置,且姿勢也和新擺放的目標一致。

總結

以上是生活随笔為你收集整理的(三)手眼标定结果的应用的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。