• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Electrical and Computer Engineering, Ajou University, Korea.)



Image-based visual servoing, Integral sliding mode control, Omnidirectional mobile manipulator, Singularity

1. 서 론

전방향 모바일 매니퓰레이터는 전방향 이동로봇과 매니퓰레이터가 결합된 형태로 전방향으로 이동이 가능하며 작업 반경이 넓다는 장점을 갖기 때문에 많은 연구가 진행되고 있다(1)-(3). 전방향 모바일 매니퓰레이터를 목표 지점으로 이동시키고, 원하는 동작을 수행하기 위해서는 도킹 알고리즘이 필요하다. 이를 위해 카메라, 적외선 센서, 레이더, 라이다와 같은 다양한 센서들이 사용되고 있다(4)-(5). 그중에서 카메라 센서는 영상 정보만을 이용하여 목표물의 위치와 로봇의 위치를 동시에 계산할 수 있기 때문에 센서의 비용이 감소한다는 장점이 있다(6). 따라서 카메라를 이용한 비주얼 서보잉을 이용한 연구가 진행되어 왔다.

비주얼 서보잉은 카메라로부터 획득한 영상 정보를 활용하여 제어하는 기법으로 영상기반 비주얼 서보잉(Image Based Visual Servoing, IBVS)과 위치기반 비주얼 서보잉(Position Based Visual Servoing, PBVS)으로 구분할 수 있다(7). 영상기반 비주얼 서보잉은 카메라를 통해 얻은 영상특징점 정보를 이용하는 제어기법으로 2차원 영상 평면상의 오차가 최소화되도록 제어 입력을 생성한다. 따라서 카메라 캘리브레이션 오차에 민감하지 않다는 것이 장점이지만 연산 과정에서 로봇의 비정상적인 동작이 발생할 수 있고, 비정상적인 동작이 발생하여 특이성(singularity) 문제로 시스템이 불안정해지는 문제가 발생할 수 있다(8). 위치기반 비주얼 서보잉은 카메라를 통해 얻은 목표물의 3차원 좌표를 통해 목표물에 대한 로봇의 위치 오차를 최소화하는 제어 입력을 생성하는 제어기법이다. 이를 위해서 카메라 캘리브레이션 정보가 필요하며 캘리브레이션 오차와 영상 왜곡 등에서 기인하는 불확실성에 강인한 제어기 설계가 필요하다. 위치기반 비주얼 서보잉은 영상기반 비주얼 서보잉에서 갖는 특이성 문제나 비정상적인 동작으로부터 자유롭다는 장점이 있지만, 목표물까지 이동하는 과정에서 목표물이 시야각에서 벗어날 수 있다는 단점이 있다(9). 모바일 매니퓰레이터의 비주얼 서보잉에 대한 연구는 계속해서 진행되어 왔는데, 특이성 문제를 해결하기 위한 이미지 자코비안을 정의하여 제어하는 기법을 제안되었고(10), 전방향 이동로봇과 매니퓰레이터의 자코비안을 통합시켜 동시에 제어하는 영상기반 비주얼 서보잉 역시 연구되었다(11). 위치기반 비주얼 서보잉과 경로 생성 기법을 결합하여 모바일 매니퓰레이터가 목표 경로를 따라 이동한 뒤 물체를 잡는 연구가 최근에 수행되었다(12).

본 논문에서는 전방향 모바일 매니퓰레이터를 목표 위치에 도달시킬 수 있는 영상기반 비주얼 서보잉 제어기를 제안한다. 영상기반 비주얼 서보잉을 수행하면서 발생할 수 있는 영상 정보의 불확실성에 강인한 적분 슬라이딩 모드 제어를 사용하여 영상기반 비주얼 서보잉 제어기를 설계하고 리아푸노프 안정성 증명을 통해 오차가 항상 슬라이딩 평면에 머물러 있으면서 0으로 수렴함을 보인다. 또한 전방향 이동로봇과 매니퓰레이터를 동시에 제어할 때 발생할 수 있는 특이성 문제를 해결하기 위해 전방향 이동로봇과 매니퓰레이터가 순차적으로 동작하도록 하는 스위칭 기법을 제안한다. 또한 시뮬레이션을 통해 전방향 모바일 매니퓰레이터가 목표 위치로 이동하는 도킹 알고리즘을 수행하며 제안한 제어기의 안정성을 검증하고 스위칭 기법을 사용하여 매니퓰레이터 자코비안의 특이성 문제를 해결함을 보임으로써 제안한 방법의 타당성을 검증한다.

2. 전방향 모바일 매니퓰레이터 시스템

그림 1은 본 논문에서 사용한 전방향 모바일 매니퓰레이터 시스템이다. 하단에는 세 개의 구동기에 전방향 바퀴(swedish wheel)가 부착되어 있고, 상단 매니퓰레이터에는 다섯 개의 구동기가 링크와 프레임을 통해 연속적으로 결합되어 있다.

그림. 1 전방향 모바일 매니퓰레이터 모델

Fig. 1 Omnidirectional mobile manipulator model

../../Resources/kiee/KIEE.2022.71.1.132/fig1.png

본 논문에서는 기구학만을 고려하여 제어기를 설계하였고, 전방향 이동로봇의 기구학은 다음과 같다.

(1)
$\dot{q}=\left[\begin{array}{ccc}\cos \phi & -\sin \phi & 0 \\ \sin \phi & \cos \phi & 0 \\ 0 & 0 & 1\end{array}\right]\left[\begin{array}{c}u \\ v \\ r\end{array}\right]=M v_{b}$

여기서 $u, v$는 각각 전방향 이동로봇 좌표계에서의 $x, y$축 선속도, $r$은 $z$방향 회전속도를 나타낸다. $q=[x, y, \phi]^{T}$는 전역 좌표계에서 전방향 이동로봇의 자세를 나타낸다.

전방향 이동로봇의 속도와 구동기의 회전속도 간의 관계는 다음과 같다.

(2)
$\left[\begin{array}{l}w_{1} \\ w_{2} \\ w_{3}\end{array}\right]=\frac{N}{R} B\left[\begin{array}{l}u \\ v \\ r\end{array}\right]$

여기서 $w_{1}, w_{2}, w_{3}$는 각 구동기의 회전속도를 의미하고, $R$은 구동기에 부착된 바퀴의 반지름, $N$은 구동기의 기어비이고, 행렬 $B$는

(3)
$B=\left[\begin{array}{ccc}0 & \cos (\Gamma) & -\cos (\Gamma) \\ -1 & \sin (\Gamma) & \sin (\Gamma) \\ L & L & L\end{array}\right]$

와 같이 정의된다. 여기서 $\Gamma$는 바퀴의 방향각을 의미하고, $L$은 로봇의 반지름을 의미한다. 매니퓰레이터 구동기에 의한 말단부 속도는 다음과 같다.

(4)
$v_{a}=\left[\begin{array}{c}{ }^{c} V_{a} \\ { }^{c} \Omega_{a}\end{array}\right]=J\left(\theta_{m}\right) \dot{\theta}_{m}$

여기서 ${ }^{c} V_{a}=\left[{ }^{c} v_{a x}, v_{a y},{v}_{a z}\right]^{T},{c}_{\Omega_{a}}=\left[{w}_{w_{\alpha u}},{c}_{w_{a z}}\right]^{T}$는 각각 매니퓰레이터 말단부에 부착된 카메라 좌표계에서의 선속도와 회전속도이고, $\theta_{m}=\left[\theta_{m 1}, \theta_{m 2}, \theta_{m 3}, \theta_{m-4}, \theta_{m 5}\right]^{T}$는 매니퓰레이터 구동기의 회전각을 나타낸다. 매니퓰레이터 자코비안 행렬 $J\left(\theta_{m}\right)$은 다음과 같다.

(5)
$J\left(\theta_{m}\right)=\left[\begin{array}{llll}{ }_{1} \gamma\left(\theta_{m}\right) & { }_{2} J\left(\theta_{m}\right) & 0 & 0 \\ 3 & J\left(\theta_{m}\right) & { }_{4}^{0} J\left(\theta_{m}\right) & { }_{5}^{0} J\left(\theta_{m}\right)\end{array}\right]$,

(6)
${ }_{i}^{0} J\left(\theta_{m}\right)=\left[\begin{array}{c}{ }^{0} Z_{i} \times\left({ }^{0} P_{c}-{ }^{0} P_{i}\right) \\ Z^{\prime 0} Z_{i}\end{array}\right], Z^{\prime}=\left[\begin{array}{lll}0 & 1 & 0 \\ 0 & 0 & 1\end{array}\right]$

여기서 ${ }^{0} Z_{j},{ }^{0} P_{c},{ }^{0} P_{j}$는 각각 매니퓰레이터 베이스 좌표계에서 $i$번째 링크 프레임의 축 정보, 카메라의 위치, 번째 링크의 위치를 나타낸다. 위치정보 ${ }^{0} Z_{j},{ }^{0} P_{c},{ }^{0} P_{j}$는 매니퓰레이터의 기구학을 표현하는 표준 데나비트-하텐버그 표시법 (Denavit- Hartenberg convention)(13)을 통해

(7)
$\begin{array}{rl}k-1_{k} T & =\left[\begin{array}{cc}k-1 & k-1 & P_{k} \\ 0 & 1 & \end{array}\right], \quad k=1, \cdots, 5 \\ & =\left[\begin{array}{cccc}\cos \theta_{k} & -\sin \theta_{k} \cos \alpha_{k} & \sin \theta_{k} \sin \alpha_{k} & a_{k} \cos \theta_{k} \\ \sin \theta_{k} & \cos \theta_{k} \cos \alpha_{k} & -\cos \theta_{k} \sin \alpha_{k} a_{k} \sin \theta_{k} \\ 0 & \sin \alpha_{k} & \cos \alpha_{k} & d_{k} \\ 0 & 0 & 0 & 1\end{array}\right], \\ w & T=\left[\begin{array}{cccc}\cos \phi & -\sin \phi & 0 & x \\ \sin \phi & \cos \phi & 0 & y \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1\end{array}\right],{ }_{c} T=\left[\begin{array}{cccc}0 & 0 & 1 & a_{5} \\ 0 & -1 & 0 & 0 \\ 1 & 0 & 0 & 0 \\ 0 & 0 & 0 & 1\end{array}\right]\end{array}$

로부터 얻을 수 있고, ${ }_{1}^{0} \mathrm{~T}$에서 위 첨자 0로 표시한 좌표계는 매니퓰레이터 베이스 좌표계임과 동시에 전방향 이동로봇 좌표계와 동일하다. 식(4)를 이용하여 매니퓰레이터 구동기에 다음과 같이 속도 명령을 입력할 수 있다.

(8)
$\dot{\theta}_{m}=\\$$J$$\left(\theta_{m}\right)^{-1} v_{a} .$

여기서 $J\left(\theta_{m}\right)$의 행렬식(determinant)이 0이 되는 경우$J\left(\theta_{m}\right)$의 역행렬이 존재하지 않기 때문에 매니퓰레이터 자코비안 행렬의 특이성 문제가 발생할 수 있다. 이러한 특이성 문제는 매니퓰레이터 작업 반경을 벗어나려는 움직임에서 주로 발생하는데, 5장에서 이를 해결하기 위한 방법을 제안한다.

3. 매니퓰레이터의 적분 슬라이딩 모드 영상기반 비주얼 서보잉

영상 평면상의 특징점 $s_{0}$ 카메라 좌표계에서 목표물의 위치 ${ }^{c} X,{ }^{c} Y,{ }^{c} Z$에 의해 다음과 같이 표현할 수 있다.

(9)
$s_{o}=\left[\frac{{ }^{c} X}{{ }^{c} Z}, \frac{{ }^{c} Y}{{ }^{c} Z}\right]^{T}=\left[\frac{u_{p}-c_{u}}{f \alpha}, \frac{v_{p}-c_{v}}{f}\right]^{T}$

$v_{p}$, $v_{p}$는 각각 영상 평면상의 픽셀 좌표이고, $c_{u}$, $c_{y}$, $f$, $\alpha$는 카메라 고유 변수이다(14). 또한 카메라 속도 와 영상특징점과의 관계는 다음과 같다.

(10)
$s_{o}=L_{o} v_{c o}$

여기서 상호관계행렬(interaction matrix) $L_{o}$는

(11)
$L_{o}=\left[\begin{array}{cccccc}-\frac{1}{{ }^{c} Z} & 0 & \frac{{ }^{c} X}{{ }^{c} Z} & { }^{c} X^{c} Y & -\left(1+{ }^{c} x_{o}^{2}\right) & { }^{c} Y \\ 0 & -\frac{1}{{ }^{c} Z} & \frac{{ }^{c} Y}{{ }^{c} Z} & 1+{ }^{c} Y^{2} & -{ }^{c} X^{c} Y & -{ }^{c} X\end{array}\right]$

이다(7). 본 논문에서 사용하는 전방향 모바일 매니퓰레이터 시스템은 매니퓰레이터 말단부에 카메라가 부착되어 있고, 다섯 개의 자유도를 가지기 때문에 간소화된 상호관계행렬은

(12)
$L_{m j}=\left[\begin{array}{ccccc}-\frac{1}{{ }^{c} Z} & 0 & \frac{{ }^{c} X}{{ }^{c} Z} & -\left(1+{ }^{c} X^{2}\right) & { }^{c} Y \\ 0 & -\frac{1}{{ }^{c} Z} & \frac{{ }^{c} X}{{ }^{c} Z} & -{ }^{c} X^{c} Y & -{ }^{c} X\end{array}\right], j=1, \cdots, 4$

와 같다.

식 (10)을 네 개의 특징점 $s=\left[s_{o 1}, s_{o 2} s_{o 3}, s_{o 4}\right]^{T}$에 대하여 다음과 같이 정리할 수 있다.

(13)
$\dot{s}=L_{m} v_{a}+\delta_{a^{\prime}}$

여기서 $v_{a}$는 매니퓰레이터에 말단부에 부착된 카메라의 속도이고 $L_{m}=\left[L_{m 1}, L_{m 2}, L_{m 3}, L_{m 4}\right]^{T}$이며, $\delta_{a}$는 영상특징점 불확실성으로 $\delta_{a}=\bar{L}_{m} v_{a}+\dot{\zeta}$와 같이 정의되고 상호관계행렬 오차 $\bar{L}_{m}$과 영상특징점 불확실성 $\zeta$는 가정 1과 같이 유계이다.

가정 1: 카메라가 움직이며 발생하는 영상 평면의 진동과 카메라 고유 변수의 불확실성으로 인해 영상특징점 불확실성 $\zeta_{j}=\left[\zeta_{x j}, \zeta_{\nu j}\right]^{T}$가 발생할 수 있다. 이때 $\zeta$와 $bar{L}_{m}$ 유한한 영상 평면상에 존재하므로 유계이고, 의 시간에 대한 미분은 양의 상수$\gamma$에 대해

(14)
$0 \leq\|\dot{\zeta}\|_{\infty} \leq \gamma$

와 같이 유계이다. 여기서 $\left\|\dot{\zeta}_{j}\right\|_{\infty}:=\max \left(\left|\dot{\zeta}_{x j}\right|,\left|\dot{\zeta}_{z j}\right|\right)$이다.

목표 영상특징점 $s_{d}$는 깊이 정보 ${ }^{c} Z_{d}$를 최종 목표 위치에서의 깊이 정보로 설정하여

(15)
$s_{d}=\left[\frac{{ }^{C} X_{d}}{{ }^{C} Z_{d}}, \frac{{ }^{C} Y_{d}}{{ }^{C} Z_{d}}\right]^{T}$

와 같이 상수로 정의한다(7). 목표물로부터 검출한 영상특징점 $s$와 목표 영상특징점 $s_{d}$에 대한 영상특징점 오차 $e$를

(16)
$e=s_{d}-s$

와 같이 설정한 후, 적분항 $U_{a}=k_{i 1} \operatorname{sgn}(e)|e|^{a}$에 대하여 적분 슬라이딩 평면 $\sigma$을 다음과 같이 정의한다.

(17)
$\sigma=e-e(0)+\int_{0}^{t} U_{a}(e(\tau)) d \tau$

여기서 $e$(0)는 $t$=0일 때 영상특징점 오차이므로 $t$=0일 때 적분 슬라이딩 평면 는 0을 만족함을 확인할 수 있다. 적분항에 포함된 $k_{i 1}$와 $\alpha \in[0,1]$는 각각 유한시간 내 안정성 보장과 수렴 속도를 결정하는 양의 상수이다(15).

적분 슬라이딩 평면을 이용하여 매니퓰레이터 말단부의 속도 명령을 다음과 같이 설계한다.

(18)
$v_{a}=L_{m}^{+}\left(k_{o 1} \operatorname{sgn}(\sigma)+U_{a}\right)$

여기서 $L_{m}^{+}:=\left(L_{m}^{T} L_{m}\right)^{-1} L_{m}^{T}$는 무어-펜로즈 의사(Moore-Penrose pseudo) 역행렬이고, $k_{o 1}$는 양의 상수로 가정 1에 의해 $k_{o 1}>\left\|\delta_{a}\right\|_{\infty}$를 만족할 수 있다. 식(18)에서 설계된 속도 명령은 식(8)를 통해 매니퓰레이터의 각 구동기에 입력된다.

안정성 증명을 위해 리아푸노프 함수를 다음과 같이 양의 정부호 함수로 설정한다.

(19)
$V=\frac{1}{2} \sigma^{T} \sigma$

이때 리아푸노프 함수의 시간에 대한 미분은 다음과 같다.

(20)
$\begin{aligned} \dot{V} &=\sigma^{T} \sigma=\sigma^{T}\left(\dot{e}+U_{a}\right) \\ &=\sigma^{T}\left(-L_{m} v_{a}-\delta_{a}+U_{a}\right) \\ &=-k_{o 1} \sigma^{T} \operatorname{sgn}(\sigma)-\sigma^{T} \delta_{a} \\ & \leq 0 . \end{aligned}$

따라서 $k_{o 1}>\left\|\delta_{a}\right\|_{\infty}$이므로 $\dot{V}$은 음의 정부호(negative defi- nite) 함수이고 도달 조건(reachability condition)을 만족하여 슬라이딩 평면 $\delta$는 유한시간 내에 0으로 수렴한다(16). 결과적으로 영상특징점 오차에 대한 미분 방정식이

(21)
$\dot{e}+k_{o 1} \operatorname{sgn}(e)|e|^{a}=0$

와 같이 유도될 수 있으므로(17), 영상특징점 오차 $e$가 다음과 같이 유한시간 내에 0으로 수렴함을 보일 수 있다(15).

(22)
$e(t)$ $=\left\{\begin{array}{cl}\operatorname{sgn}(e(0))\left(|e(0)| 1-a-t(1-\alpha)^{(1 / 1-a)}\right), 0 & \leq t \leq \frac{|e(0)|^{1-a}}{1-\alpha} \\ 0 & , t>\frac{|e(0)|^{1-a}}{1-\alpha}\end{array}\right.$

4. 전방향 이동로봇의 적분 슬라이딩 모드 영상기반 비주얼 서보잉

전방향 이동로봇에 부착된 카메라로부터 얻은 영상특징점 $S_{b}$와 전방향 이동로봇의 속도 $v_{b}=[u, v, r]^{T}$는 다음과 같은 관계를 갖는다.

(23)
$\dot{s}_{b}=L_{b} v_{b}+\delta_{b^{*}}$

여기서 $\delta_{b}=\tilde{L}_{b} v_{b}+\dot{\zeta}$는 가정 1과 같은 유계의 영상특징점 불확실성이고, $L_{b}=\left[L_{b 1}, L_{b 2}, L_{b 3}, L_{z 4},\right]^{T}$는 간소화된 상호관계행렬로서 전방향 이동로봇이 세 개의 자유도를 가지므로

(24)
$L_{b j}=\left[\begin{array}{ccc}\frac{{ }^{c} X}{{ }^{C} Z} & -\frac{1}{{ }^{c} Z} & -1-{ }^{c} X^{2} \\ \frac{{ }^{c} Y}{{ }^{c} Z} & 0 & -{ }^{c} X^{c} Y\end{array}\right], j=1, \cdots, 4$

와 같이 나타낼 수 있다. 식(15)와 같이 목표 영상 특징점을 설정하고, 전방향 이동로봇의 목표 영상특징점에 대하여 영상특징점 오차를

(25)
$e_{b}=s_{d}-s_{b}$

와 같이 설정한다. 영상특징점 불확실성에 강인한 적분 슬라이딩모드 제어기를 설계하기 위해 적분 슬라이딩 평면을 다음과 같이 정의한다.

(26)
$\sigma_{b}=e_{b}-e_{b}(0)+\int_{0}^{t} U_{b}\left(e_{b}(\tau)\right) d \tau .$

여기서 $k_{i 2}$는 양의 상수이고, 적분항 $U_{b}=k_{i 2} \operatorname{sgn}\left(e_{b}\right)\left|e_{b}\right| ^{a}$는 식(17)과 같이 이동로봇의 위치 오차에 대해 유한시간 내 안정성 보장과 수렴 속도를 결정한다. 전방향 이동로봇의 자세 오차를 0으로 수렴시키기 위한 전방향 이동로봇의 속도 명령을

(27)
$v_{b}=L_{b}+\left(k_{o 2} \operatorname{sgn}\left(\sigma_{b}\right)+U_{b}\right)$

와 같이 설계한다.

설계한 제어기의 안정성을 증명하기위해 리아푸노프 함수를 다음과 같이 양의 정부호 함수로 설정한다.

(28)
$V=\frac{1}{2} \sigma_{b}^{T} \sigma_{b}$

리아푸노프 함수의 시간에 대한 미분은 다음과 같다.

(29)
$\begin{aligned} \dot{V} &=\sigma_{b}^{T} \sigma_{b}=\sigma_{b}^{T}\left(\dot{e}+U_{b}\right) \\ &=\sigma_{b}^{T}\left(-L_{b} v_{b}-\delta_{b}+U_{b}\right) \\ &=-k_{o 2} \sigma_{b}^{T} s g n\left(\sigma_{b}\right)-\sigma_{b}^{T_{\delta}} \delta_{b} \\ & \leq 0 . \end{aligned}$

이때 $k_{s 2}>\left\|\delta_{b}\right\|_{\infty}$이므로 $\dot{V}$은 음의 정부호 함수이며, 도달 조건을 만족하여 슬라이딩 평면은 유한시간 내에 0에 수렴한다. 식(21)와 같이 슬라이딩 평면이 0에 수렴하면

(30)
$e_{b}+k_{o 2} \operatorname{sgn}\left(e_{b}\right)\left|e_{b}\right|^{a}=0$

와 같은 미분 방정식 형태를 얻을 수 있고, 식(22)과 같은 형태로 영상특징점 오차가 유한시간 내에 0으로 수렴한다.

5. 특이성 문제 해결을 위한 스위칭

일반적으로 영상기반 비주얼 서보잉에서는 깊이 정보인 ${ }^{c} Z_{d}$일반적으로 영상기반 비주얼 서보잉에서는 깊이 정보인 를 최종 목표지점에서의 깊이 정보로 설정하여 목표 영상특징점 식(15)와 같이 상수로 설정한다. 이때 ${ }^{c} Z_{d}$의 초기값 ${ }^{c} Z_{\text {initial }}$와 ${ }^{c} Z_{d}$의 차이의 크기인 $\left|{ }^{c} Z_{\text {initial }}-{ }^{c} Z_{d}\right|$이 큰 경우에 다음과 같은 두 가지의 문제점이 발생한다. 첫 번째로 $\left|{ }^{c} Z_{\text {initial }}-{ }^{c} Z_{d}\right|$이 커지면 영상특징점 오차 $e$의 초기값도 커지게 되고, 속도 명령을 생성할 때 $e$를 사용하므로 속도 명령을 따라가는 과정에서 큰 오버슈트가 발생할 수 있다. 두 번째로 초기에 매니퓰레이터가 작업 반경을 넘어서 움직이도록 제어 입력이 생성될 수 있고, 이로 인해 경우에 따라 자코비안 행렬에 특이성이 발생할 수 있다(18). 따라서 본 장에서는 매니퓰레이터의 특이성 문제를 해결하기 위해 동작 구간을 두 가지로 분류하고, 이를 순차적으로 제어하기 위한 스위칭 조건을 다음과 같이 설계한다.

표 1에서 $e_{b, r m s e}, e_{r m s e} e_{o}$는 각각 전방향 이동로봇에 부착된 카메라로 얻은 영상특징점과 매니퓰레이터에 부착된 카메라로 얻은 영상특징점의 평균 제곱근 오차(Root Mean Square Error, RMSE)(19)이고, $e_{s}$는 스위칭을 위한 오차의 임계치를 의미한다.

표 1 스위칭 조건과 동작 구간

Table 1 Switching condition and operation interval

동작 구간

스위칭 조건

매니퓰레이터

전방향 이동로봇

1

-

$V_{a}=0$

식(27)

2

$e_{brmse} < e_{s}$

식(18)

$V_{b}=0$

3

$e_{brmse} < e_{s}$

$V_{a}=0$

$V_{b}=0$

첫 번째 동작 구간에서는 매니퓰레이터는 정지한 상태에서 전방향 이동로봇이 식(27)을 통해 목표 지점으로 이동한다. 전방향 이동로봇의 영상특징점 오차가 설정한 오차의 임계치 $e_{5}$보다 작아졌을 때, 전방향 이동로봇이 목표 지점에 도달했다고 볼 수 있다. 따라서 $e_{b, r m s e}<e_{s}$를 만족하면 전방향 이동로봇은 정지하고 두 번째 동작 구간에 해당하는 매니퓰레이터의 제어가 식(18)과 같이 시작된다. 매니퓰레이터의 영상특징점 오차가 $e_{s}$보다 작아졌을 때, 세 번째 동작 구간이 시작되며 매니퓰레이터가 목표 지점에 도착하였다고 판단하여 정지하게 된다. 이러한 순차적인 제어를 통해 $\left|{ }^{c} Z_{\text {initial }}-{ }^{c} Z_{d}\right|$가 클 때 발생할 수 있는 문제를 해결할 수 있다.

6. 모의실험

본 장에서는 모의실험을 통해 설계한 제어기의 성능을 검증하며 스위칭 기법의 타당성을 확인한다. 모의실험은 표 2와 같이 매니퓰레이터의 말단부와 이동로봇이 목표 위치에 영상기반 비주얼 서보잉을 통해 이동한다. 이때 표 1과 같이 전방향 이동로봇이 비주얼 서보잉을 통해 목표 위치에 도달하였을 때, 매니퓰레이터의 비주얼 서보잉이 시작되어 매니퓰레이터의 말단부가 목표 위치까지 이동하는 도킹 알고리즘을 수행한다. 매니퓰레이터의 말단부와 전방향 이동로봇은 각각 한 변의 길이가 인 정사각형 마커로부터 얻은 네 개의 영상특징점을 이용한다. 전역 좌표계에서 마커의 위치는 표 3과 같다. 표 4에는 모의실험에 사용된 매니퓰레이터의 초기 자세와 D-H 파라미터를, 표 5는 모의실험에 사용된 카메라 행렬 $A_{c}$와 제어 파라미터들을 나타냈다. 가정 1에 의해 영상특징점 불확실성을 $\delta_{a}=\delta_{b}=0.001 \sin (t) m / s$로 설정한다.

표 2 전역 좌표계에서 목표 위치

Table 2 Desired position in world coordinates

매니퓰레이터 말단부의

목표 위치

이동로봇

목표 위치

(0.9, 0.3, 0.325)

(0.65, 0.26, 0)

표 3 전역 좌표계에서 마커의 중앙 위치

Table 3 Center position of marker in world coordinates

매니퓰레이터

마커의 중앙 위치

이동로봇

마커의 중앙 위치

(1, 0.3, 0.325)

(1, 0.26, 0)

표 4 매니퓰레이터의 초기 자세 및 D-H 파라미터

Table 4 Initial posture and D-H parameters of the manipulator

Joint

$\theta_{\text {initial }}[$ degree $]$

$d_{\text {i }}[$ cm $]$

$a_{\text {i }}[$ cm $]$

$a_{\text {i }}[$ cm $]$

1

0

7.8

0

$-\pi/2$

2

-130

0

19.8

0

3

90

0

13.8

0

4

40

0

6.9

$\pi/2$

5

0

0

11.6

$-\pi/2$

표 5 모의실험 파라미터

Table 5 Simulation parameters

카메라 내부 행렬

$A_{c}=\left[\begin{array}{ccc}f_{x} & 0 & c_{x} \\ 0 & f_{y} & c_{v} \\ 0 & 0 & 1\end{array}\right]=\left[\begin{array}{ccc}619 & 0 & 317 \\ 0 & 619 & 276 \\ 0 & 0 & 0\end{array}\right]$

기구학 파라미터 제어기 설계 파라미터
$N=1, R=0.03 \mathrm{~m}$ $L=0.4 m, \Gamma=\pi / 6 \mathrm{rad}$ $k_{s 1}=0.02, k_{s 1}=0.01$ $k_{r 1}=1.2, k_{12}=0.6$ $\alpha=0.8, e_{s}=0.0001$

그림 2-3은 전방향 이동로봇과 매니퓰레이터의 영상특징점 오차를, 그림 4-5에는 속도 명령을 나타내었다. 그림 6표 1의 스위칭 조건에 따른 동작 구간의 변화다. 그림 2에서 전방향 이동로봇의 영상특징점 오차가 0에 수렴하는 것을 확인할 수 있고, 그림 4와 같이 전방향 이동로봇의 영상특징점 오차가 $e_{s}$보다 작아졌을 때 동작 구간 2로 전환 되며 전방향 이동로봇의 속도 명령이 더이상 생성되지 않는 것을 볼 수 있다. 그림 4에 나타난 것과 같이 매니퓰레이터는 9.7초에 동작 구간 2로 스위칭 되며 영상기반 비주얼 서보잉이 시작되어 속도 명령이 생성되고, 그림 3과 같이 영상특징점 오차는 0에 수렴하는 것을 볼 수 있다. 그림 7-8에서는 각각 전방향 이동로봇과 매니퓰레이터 말단부에 부착된 카메라의 영상 평면 상에서 영상특징점의 궤적을 나타내었다. 또한 전역 좌표계에서 전방향 이동로봇과 매니퓰레이터 말단부의 이동 궤적은 그림 9와 같다.

그림. 2 전방향 이동로봇의 영상특징점 오차 (실선: 축, 파선: 축)

Fig. 2 Feature point error of the omnidirectional mobile robot (solid: axis, dashed: axis)

../../Resources/kiee/KIEE.2022.71.1.132/fig2.png

그림. 3 매니퓰레이터의 영상특징점 오차 (실선: 축, 파선: 축)

Fig. 3 Feature point error of the manipulator (solid: axis, dashed: axis).

../../Resources/kiee/KIEE.2022.71.1.132/fig3.png

그림. 4 전방향 이동로봇 속도 명령

Fig. 4 Velocity input of the omnidirectional mobile robot

../../Resources/kiee/KIEE.2022.71.1.132/fig4.png

그림. 5 매니퓰레이터 말단부 속도 명령

Fig. 5 Velocity input of the end effector

../../Resources/kiee/KIEE.2022.71.1.132/fig5.png

그림. 6 동작 구간 변화

Fig. 6 Changes of operation interval

../../Resources/kiee/KIEE.2022.71.1.132/fig6.png

그림. 7 전방향 이동로봇에 부착된 카메라의 영상 평면 상에서 영상특징점 궤적

Fig. 7 Feature point trajectories in the viewpoint of the camera mounted on the omnidirectional mobile robot

../../Resources/kiee/KIEE.2022.71.1.132/fig7.png

그림. 8 매니퓰레이터 말단부에 부착된 카메라의 영상 평면 상에서 영상특징점 궤적

Fig. 8 Feature point trajectories in the viewpoint of the camera mounted on the end effector of manipulator

../../Resources/kiee/KIEE.2022.71.1.132/fig8.png

그림. 9 전방향 모바일 매니퓰레이터의 3차원 이동 궤적

Fig. 9 3D trajectories of the omnidirectional mobile manipulator

../../Resources/kiee/KIEE.2022.71.1.132/fig9.png

다음으로 그림 10에서는 특이성 문제를 해결하기 위한 스위칭 기법에 대한 타당성을 알아보기 위해 매니퓰레이터의 자코비안의 행렬식을 나타냈다. 그림 10에서 스위칭 기법을 사용하지 않고 전방향 이동로봇과 매니퓰레이터를 동시에 영상기반 비주얼 서보잉을 했을 때 매니퓰레이터의 행렬식이 0에 도달하여 매니퓰레이터의 자코비안이 발산하는 문제점이 발생하였으나, 본 논문에서 제안한 스위칭 기법을 사용했을 때는 행렬식이 0이 되어 발산하는 문제 없이 정상적으로 제어가 되는 것을 확인할 수 있다.

그림. 10 매니퓰레이터 자코비안의 행렬식

Fig. 10 Determinant of the manipulator Jacobian

../../Resources/kiee/KIEE.2022.71.1.132/fig10.png

7. 결 론

본 논문에서는 영상기반 비주얼 서보잉을 이용한 전방향 모바일 매니퓰레이터가 목표 위치에 안정적으로 도달할 수 있는 제어 방법을 제안하였다. 실제 환경에서 카메라로부터 얻은 영상 정보에 존재하는 불확실성에 강인하도록 적분 슬라이딩모드 제어기를 설계하였고, 매니퓰레이터의 초기 위치와 마커 사이 거리가 멀 때 발생하는 특이성 문제를 해결하기 위해 스위칭 기법을 제안하였다. 제안된 스위칭 기법을 이용하면 이동로봇과 매니퓰레이터가 순차적으로 제어되며 목표 위치에도 순차적으로 도달하게 되므로 매니퓰레이터가 작업 반경 이상으로 동작하려는 불안정한 움직임이 발생하지 않으므로 스위칭 기법을 사용하지 않았을 때 매니퓰레이터의 자코비안이 발산하는 문제점을 해결할 수 있었다. 본 논문에서는 전방향 모바일 매니퓰레이터를 목표 지점에 안정적으로 도달하는데 제안한 강인 영상기반 비주얼 서보잉 기법을 활용할 수 있음을 모의실험을 통해 검증하였다.

Acknowledgements

This work was supported by the National Research Foundation of Korea grant funded by the Korea government (2020R1A2C101226111).

References

1 
T. Zahid, Z. Kausar, M. F. Shah, M. T. Saeed, J. Pan, May 2021, Workspace Design and Trajectory Planning of a Five Degree of Freedom Mobile Welding Manipulator for Spheri- cal Objects, IEEE Access, Vol. 9, pp. 73843-73856DOI
2 
C. Tsai, Y. Chou, C. Wong, Y. Lai, C. Huang, Dec 2020, Visually Guided Picking Control of an Omnidirectional Mobile Manipulator Based on End-to-End Multi-Task Imitation Learning, IEEE Access, Vol. 8, pp. 1882-1891DOI
3 
A. Marino, Sep 2018, Distributed Adaptive Control of Networked Cooperative Mobile Manipulators, IEEE Transactions on Control Systems Technology, Vol. 26, No. 5, pp. 1646-1660DOI
4 
G. Wang, Jul 2019, Docking Strategy for a Space Station Container Docking Device Based on Adaptive Sensing, IEEE Access, Vol. 7, pp. 100867-100880DOI
5 
K. Teo, B. Goh, O. K. Chai, Apr 2015, Fuzzy Docking Guidance Using Augmented Navigation System on an AUV, IEEE Journal of Oceanic Engineering, Vol. 40, No. 2, pp. 349-361DOI
6 
J. Gao, G. Zhang, P. Wu, X. Zhao, T. Wang, W. Yan, Feb 2019, Model Predictive Visual Servoing of Fully-Actuated Under- water Vehicles With a Sliding Mode Disturbance Observer, IEEE Access, Vol. 7, pp. 25516-25526DOI
7 
F. Chaumette, S. Hutchinson, Dec 2006, Visual servo control. I. Basic approaches, IEEE Robotics & Automation Magazine, Vol. 13, No. 4, pp. 82-90DOI
8 
S. Hutchinson, G. D. Hager, P. I. Corke, Oct 1996, A tutorial on visual servo control, IEEE Transactions on Robotics and Automation, Vol. 12, No. 5, pp. 651-670DOI
9 
P. I. Corke, S. A. Hutchinson, Sydney Australia Dec 2000, A new hybrid image- based visual servo control scheme, Proc. IEEE Conf. Decision and Control, Vol. 3, pp. 2521-2526DOI
10 
A. De Luca, G. Oriolo, P. R. Giordano, Mar 2007, Image-based visual servoing schemes for nonholonomic mobile manipu- lators, Robotica, Vol. 25, No. 2DOI
11 
Guangyao, Zhu, Xing Guansheng, Sun Hansong, Nov 2020, Visual Servo Control of Omnidirectional Mobile Manipulator, Proc. Chinese Automation Congress, Shanghai, China, pp. 2857-2862DOI
12 
H. Zhang, Y. Zhang, Z. Xiong, X. Sheng, X. Zhu, Oct 2019, A Task-Priority Coordinated Motion Planner Combined with Visual Servo for Mobile Manipulator, Proc. IEEE/ASME International Conf. Advanced Intelligent Mechatronics, Hong Kong, China, pp. 7-12DOI
13 
Denavit, Jacques, Richard S. Hartenberg, Jun 1955, A kinematic notation for lower-pair mechanisms based on matrices, J. Appl. Mech., Vol. 77, No. 2, pp. 215-221DOI
14 
C. Bergeles, B. E. Kratochvil, B. J. Nelson, Aug 2012, Visually Servoing Magnetic Intraocular Microdevices, IEEE Tran- sactions on Robotics, Vol. 28, No. 4, pp. 798-809DOI
15 
Eom, Myunghwan, Dongkyoung Chwa, Feb 2016, Adaptive integral sliding mode control for nuclear research reactor with system uncertainties and input perturbation, Electronics Letters, Vol. 52, No. 4, pp. -Google Search
16 
W. Qi, G. Zong, H. R. Karimi, May 2020, Sliding Mode Control for Nonlinear Stochastic Semi-Markov Switching Systems With Application to SRMM, IEEE Transactions on Indu- strial Electronics, Vol. 67, No. 5, pp. 3955-3966DOI
17 
E. Moulay, W. Perruquetti, Nov 2006, Finite time stability and stabilization of a class of continuous systems, Journal of Mathematical analysis and applications, Vol. 323, No. 2, pp. 1430-1443DOI
18 
Yu, Tiantian, Daqing Wang, Lifu Gao, Mar 2021, Singularity avoidance for manipulators with spherical wrists using the approximate damped reciprocal algorithm, International Journal of Advanced Robotic Systems, Vol. 18, pp. 1-9DOI
19 
T. Chai, R. R. Draxler, Jun 2014, Root mean square error (RMSE) or mean absolute error (MAE)? – Arguments against avoiding RMSE in the literature, Geoscientific Model Development, Vol. 7, No. 3, pp. 1247-1250DOI

저자소개

조강민(Kangmin Jo)
../../Resources/kiee/KIEE.2022.71.1.132/au1.png

Kangmin Jo received the B.S. in electrical and computer engineering from Ajou University, Suwon, Korea, in 2021, respectively, where he is currently working toward the M.S. degree

Tel:031-219-2489

Fax:031-212-9531

E-mail : kmkmjoe@ajou.ac.kr

좌동경(Dongkyoung Chwa)
../../Resources/kiee/KIEE.2022.71.1.132/au2.png

Dongkyoung Chwa received the B.S. and M.S. degrees in control and instrumentation engi- neering and the Ph.D. degree in electrical and computer engineering from Seoul National University, Seoul, Korea, in 1995, 1997, and 2001, respectively.

Since 2005, he has been with the Department of Electrical and Computer Engineering, Ajou University, Suwon, Korea, where he is currently a Professor.

Tel:031-219-1815

Fax:031-212-9531

E-mail : dkchwa@ajou.ac.kr