• 대한전기학회
Mobile QR Code QR CODE : The Transactions of the Korean Institute of Electrical Engineers
  • COPE
  • kcse
  • 한국과학기술단체총연합회
  • 한국학술지인용색인
  • Scopus
  • crossref
  • orcid

  1. (Dept. of Medical IT Engineering, Soonchunhyang University, Korea.)
  2. (Dept. of Software Convergence, Graduate School, Soonchunhyang University, Korea.)



Proprioception, Kinect, Unity, Decision Tree, Random Forest, Paired T-test, Skeleton Point, Rehabilitation

1. 서 론

고유수용감각은 몸의 위치와 자세, 평형감각 및 움직임에 대한 정보를 뇌의 중추신경계로 전달하여 특정 작업을 수행할 수 있도록 도와주는 감각이다[1]. 고유수용감각은 관절 위치 감각과 움직임을 감지하는 운동 감각으로 분류할 수 있고 이 감각을 통해 신체의 움직임을 의식적으로 알 수 있다[2]. 특히, 고유수용감각은 우리의 시각이 차단되어도 손을 코에 댈 수 있게 하거나, 글을 쓸 때 종이를 보지 않고 글을 작성할 수 있게 도와준다. 또한, 불규칙한 지면을 걸을 때 균형을 잡을 수 있게 해주는 등 일상생활과 운동 활동에서 필수적인 감각이다[3]. 그러나 노화나 질병으로 인해 신체 활동에 중요한 인대, 관절, 근육 등이 손상되어 기능이 떨어지게 되면 고유수용감각도 많은 부분이 상실된다[4]. 특히 뇌졸중 및 편마비 환자는 근력 약화 및 경직과 함께 운동 감각 저하, 인지 능력의 결함, 관절의 움직임이 제한, 그리고 균형 능력의 감소가 나타나게 된다[5]. 또한, 일반적인 뇌졸중 환자는 고유수용감각의 상실을 경험한다[6]. 고유수용감각이 떨어지는 환자의 경우, 관절의 기능적 불안정성을 유발하기 때문에 운동 능력 및 균형 감각이 저하되어 부상의 위험을 높이며, 운동 협응 장애나 신경병증 등 이차적인 질병 발생의 원인이 된다[7-8].

고유수용감각을 진단하는 방식에는 관절 위치 감각을 평가하는 방법과 움직임을 평가하는 방법이 있다[3,9]. 임상에서는 고유수용감각의 정확성을 평가하기 위해 눈을 감은 후 양쪽 관절을 같은 위치로 맞추는 관절의 위치 감각 테스트, 발을 모으고 눈을 감은 상태에서 균형을 유지할 수 있는지 평가하는 롬버그 검사(Romberg Test), 그리고 정적 및 동적 균형 평가 등 다양한 균형 테스트를 통하여 고유 수용 감각에 대한 균형, 문제 영역 파악, 그리고 다른 감각과의 협응성을 평가한다[10-13]. 또한, 마커를 신체에 부착하고 Dartfish를 이용하여 각도를 측정하여 고유수용감각을 평가하는 방법도 있다[14].

그러나 기존의 고유수용감각 진단 방식은 환자의 주관적 보고로 이루어지거나 측정 도구의 제한으로 인한 평가의 정밀도가 떨어지기 때문에 오차로 인하여 정확도의 한계가 있을 수 있다. 또한, 특정 장소에서만 가능하거나 여러 가지 장비를 필요로 하여, 번거로움이 있을 수 있다[15]. 이러한 기능적 평가들은 단편적인 활동에서 이루어지기 때문에 실제 생활에서의 문제를 평가하는 기능적 능력을 반영하지 못할 수 있다. 따라서 이러한 한계를 극복하기 위해 물리적 장치를 사람의 신체에 부착하고 측정하는 접촉식 방식이 등장하였다[16].

접촉식 방식의 경우 높은 정확도를 갖는다는 장점이 있다. 그러나 고가의 장비를 사용해야 하며 실험 대상자에게 직접 붙여야 하는 단점이 있다. 이를 극복하기 위해 비접촉식 방식이 활용되고 있다. 비접촉식 방식은 대상자에게 장치를 장착하거나 부착하지 않고 카메라 센서를 통해 획득한 데이터를 분석해 동작을 인식한다[17]. Yoon 등은 RGB, Depth, 음성인식 그리고 20개의 Skeleton Point에 대해 3D 좌표를 제공하는 Natural User Interface(NUI) 장비인 Kinect를 소개하였다[18]. Kinect는 최대 30fps의 프레임 속도로 작동하며, $\pm$1~2cm의 오차 범위를 가졌다[19,20]. Kinect의 일반적 사용을 위해 성능을 비교한 연구들이 있으며, 3D Skeleton을 사용하여 다 시점 보정 방법을 제안하였다[21]. 이는 여러 개의 불완전한 뼈대를 하나의 정확한 point로 보정하며, Kinect의 활용 가능성을 제안하였다. 또한, 사람의 보행 방향에서 나타나는 관절의 움직임을 Kinect와 동작 분석 시스템인 Qualisys를 비교한 연구는 Kinect의 운동 기능 평가를 위한 가능성을 보여주었다[22]. 추가로 Kinect를 활용하여 움직임을 분석한 연구로는 재활 운동이 필요한 대상으로 기능성 운동 게임을 개발하였다[23]. 사용자의 균형 및 자세 정보를 인식하기 위하여 Kinect에서 제공하는 Skeleton Point를 추출하고 각각의 벡터를 생성하여 만든 운동 자세 인식 모델을 제안하였다[24].

본 연구는 비접촉식 평가 방식을 제안하기 위해 Kinect를 활용하여 특정 자세에서의 각도를 정밀하게 측정하여 고유수용감각을 수치화하는 시스템을 개발함으로써 신체의 기능과 균형 능력을 측정하고자 하였다. 또한, 머신러닝을 사용하여 다양한 환경과 상태에서의 감각 기능 변화를 분류하고자 하였다.

2. 본 론

2.1 실험 대상자

관절 움직임에는 이상이 없으나 하루 평균 7시간 이상 컴퓨터를 사용하는 20대 남녀 12명을 대상으로 수행하였다(Age: 25.83±2.79). 가벼운 동작을 수행할 수 있으며, 근골격계 질환이 없는 사람을 대상으로 진행하였다. 실험 전 모든 대상자에게 실험 목적과 절차를 설명한 후 실시하였다. 실험 대상자가 모두 움직임에 제한이 없기에 모래주머니 2 kg을 측정 부위에 착용시켜 위치 감각과 근력을 일시적으로 제한하여 고유수용감각을 저하시키고자 하였다[25]. 무게추로 사용된 2 kg의 모래주머니는 기존 연구에서 일시적인 근 피로 유발하고 감각과 자세 조절 변화를 유도하는 데 적절한 중량으로 사용된 바 있으며, 일상적인 신체 활동에 지장을 주지 않으면서도 감각 피드백에 영향을 줄 수 있는 수준으로 설정하였다[26]. 또한, 대상자가 안정적으로 자세를 수행할 수 있으면서 피로 또는 자세 흔들림을 유도할 수 있는 무게로서 실험 안전성과 유효성을 고려하였다. 또한, 눈을 감은 상태에서 자세를 수행하여 시각 정보로 인한 균형 감각이 피실험자의 고유수용감각에 어떤 영향을 미치는지 보고자 하였다[27].

2.2 측정 자세

고유수용감각을 수치화하고 정량적으로 평가하기 위해 관절의 각도를 이용하였다. 이때의 측정 자세는 팔을 옆으로 90$^{\circ}$ 올리는 자세와 다리를 옆으로 45$^{\circ}$올리는 자세로 수행되었다. 각 자세의 각도는 3개의 Skeleton Point를 사용하여 계산하였다. Skeleton Point란 Kinect로 획득한 신체의 특정 좌표를 의미한다. 사용되는 Skeleton Point로는 팔 자세를 측정할 시 오른팔 기준으로 Wrist Right, Shoulder Right, Ankle Right의 3개의 좌표로 구하였다. 그리고 왼팔은 Wrist Left, Shoulder Left, Ankle Left를 사용하였다. 그리고 하체의 자세를 측정하는 경우에는 오른발 기준으로 Ankle Right, Hip Left, Ankle Left의 3개의 좌표로 구하였고 왼발은 Ankle Left, Hip Right, Ankle Right 좌표로 각도를 구하였다. 각 자세의 각도를 측정하기 위해 사용된 3개의 Skeleton Point 중 2개를 선택하여 2쌍의 벡터로 변환한 뒤, 2쌍의 벡터에서 교차점을 찾고, 교차점의 각도를 계산하였다(표 1). 벡터는 식 (1)을 사용하여 변환하였다. 이때 Kinect를 활용함으로써 각각 Skeleton Point의 3차원 좌표인 x, y, z 값을 얻을 수 있다. 이를 통해 식 (1)에서 (x1, y1, z1)은 첫 번째 좌표의 x, y, z 값이고 (x2, y2, z2)는 두 번째 좌표의 x, y, z의 값이다. 예를 들어, 오른팔을 90도 올리는 자세에서는 Shoulder Right와 Wrist Right 사이의 벡터와 Shoulder Right와 Wrist Right 사이의 벡터를 각각 계산하고 두 벡터 간의 교차점의 각도를 식 (2)를 활용하여 계산하였다. 이를 통해 각 자세의 정확한 각도를 수치화하고 고유수용감각 상태를 평가할 수 있었다. 표 1은 해당 각도에 대해 사용되는 기준점(Skeleton Point) 쌍을 정리한 것으로, Vector는 각도를 계산하기 위해, 필요한 Skeleton Point 쌍이고 Posture는 벡터를 통해 계산된 자세의 각도이다(표 1).

(1)
$v =(x_{2}- x_{1,\:}y_{2}- y_{1,\:}z_{2}- z_{1})$
(2)
$\theta_{\deg ree}=\cos^{-1}((\vec{v_{1}}\bullet\vec{v_{2}})/(\left |\vec{v_{1}}\right |\bullet\left |\vec{v_{2}}\right |))$

표 1 각도를 계산하기 위해 필요한 Skeleton Point 쌍

Table 1 Skeleton Point pairs required for angle calculation

Posture

Vector

Right Arm Angle

(Shoulder Right, Wrist Right) ↔

(Shoulder Right, Ankle Right)

Left Arm Angle

(Shoulder Left, Wrist Left) ↔

(Shoulder Left, Ankle Left)

Right Leg Angle

(Ankle Right, Hip Left) ↔

(Hip Left, Ankle Left)

Left Leg Angle

(Ankle Left, Hip Right) ↔

(Hip Right, Ankle Right)

2.3 실험 환경

본 연구에서는 Kinect를 활용하여 Skeleton Point를 획득하였다(그림 1). 그림 2는 실험 환경의 개요이며, Kinect와 피실험자의 거리, 그리고 예시 자세를 보여준다. Kinect와 실험 대상자와의 거리는 2.5m로 고정하였다. C\#을 이용한 Unity 3D를 사용하여 실험자와의 상호작용을 더 쉽게 하였다. Unity 3D를 활용한 3차원 환경에서 Skeleton Point에 가상 객체인 아바타를 적용하고 화면에 구성 요소를 추가하였다(그림 3). 따라서 대상자에게 시각적 효과, 몰입 그리고 참여를 유도함과 동시에 신체적 활용을 높이고자 하였다[28].

그림 1. Kinect 센서로부터 획득 가능한 Skeleton Point

Fig. 1. Skeleton points obtainable from a kinect sensor

../../Resources/kiee/KIEE.2025.74.8.1373/fig1.png

그림 2. 고유수용감각을 평가하기 위한 각도를 측정하는 환경

Fig. 2. Environment for measuring angles to evaluate proprioception

../../Resources/kiee/KIEE.2025.74.8.1373/fig2.png

실험 과정은 먼저 눈을 뜨고 자세를 수행하고 그 뒤에 눈을 감고 이전 자세를 기억하며 자세를 수행하였고 이를 3회씩 반복하였다. 이를 통해 피실험자마다 동일 자세의 3회 반복 수행에 대한 평균 관절 각도 데이터를 얻고 분석하였다. 이 데이터는 csv 파일에 저장되며, 추후 머신러닝 분석 데이터로 사용되었다. 처음 눈을 뜨고 자세를 수행할 시 Unity 3D에서 구성한 화면에 별을 보여주며 제시된 각도에 맞춰서 자세를 수행하도록 유도하였다. 90$^{\circ}$를 기준으로 적절한 각도일 경우에는 별의 색상이 노란색이 되며, 각도가 낮은 경우에는 검은색, 각도가 높은 경우에는 빨간색으로 변하게 하였다(그림 3). 실험 대상자가 자신이 수행한 각도가 기준 각도와 같다고 생각했을 때 데이터를 기록하였다. 눈을 뜨고 측정한 뒤 바로 눈을 감고 자세를 수행하였는데 이때에는 눈을 뜨고 움직인 자세를 기억하며 수행할 수 있도록 유도하였다. 피실험자가 수행한 각도가 이전에 눈 뜨고 수행한 각도와 같다고 생각했을 때의 값을 저장하였다. 모래주머니를 착용한 후 측정할 때에도 착용하지 않을 때와 동일하게 실험을 진행하였다.

그림 3. Unity 시스템 화면 (왼발 기준 각도 45$^{\circ}$)

Fig. 3. Unity system interface (45 degrees based on the left leg)

../../Resources/kiee/KIEE.2025.74.8.1373/fig3.png

2.4 머신러닝

본 연구에서는 여러 머신러닝 모델을 사용함으로써 Kinect로 수집한 관절 각도 데이터로 사람의 고유수용감각 기능 평가와 관련된 패턴을 인식하고, 다양한 환경 및 상태에서의 감각 기능 변화를 분류하였다[29]. 눈을 감고 수행한 자세와 눈을 뜨고 수행한 자세 간의 차이를 분류하기 위해 Decision Tree와 Random Forest의 성능을 비교 분석하였다.

수집된 데이터를 각 조건에 맞는 특성을 기반으로, 예측 모델을 구축하기 위해 데이터에 라벨을 부착하였다. 먼저, 눈을 감았을 때는 close의 라벨을, 눈을 떴을 때는 open의 라벨을 붙여서 머신러닝 모델의 데이터로 사용하였다.

머신러닝의 환경으로는, Visual Studio Code 환경에서 Scikit-learn 라이브러리를 활용하여 Decision Tree, Random Forest를 구현하였다. 또한, Accuracy(ACC), Precision(PR), Recall(RE), F1-score(F1)의 성능 지표를 활용하여 정량적으로 성능을 평가하고자 하였다.

2.4.1 Decision Tree

Decision Tree는 회귀와 분류에서 강점이 있는 분석 방법으로, 이해하기 쉬운 해석과 예측 때문에 다양한 연구에서 널리 사용되고 있다[30]. 결정 트리는 소집단으로 데이터를 분류하거나 예측하는 방식으로 작동한다. 결정 트리의 장점 중 하나는 그 과정이 나무 구조를 통해 직관적으로 표현되므로, 신경망, 판별분석 등에 비해 연구자가 분류 또는 예측 과정을 이해하기 쉽다[31]. 각각의 소집단에서는 데이터 하나를 선택하여 대푯값으로 표현하기 위해 평균, 중위수, 최빈값을 고려한다. 최빈값은 주어진 연속형 수치 자료에서 빈도가 가장 높은 지점을 정의하며, 이산형 수치 자료에서는 쉽게 정의할 수 있지만, 연속형 수치 자료에서는 밀도 추정 방법을 이용하여 최빈값을 추정해야 한다[30]. 이러한 특성으로 인해 결정 트리는 데이터 분석의 도구로 사용되며, 다양한 분야에서의 분류 문제를 해결하기에 용이하다.

2.4.2 Random Forest

Random Forest는 여러 Decision Tree를 결합하여 예측 성능을 높이는 기법으로[32], 주로 분류 및 회귀 문제에서 우수한 성능을 발휘하며, 다양한 데이터 분석 분야에서 널리 활용된다[33]. Random Forest는 결정 트리를 개별적으로 학습하고 이 결과를 조합하여 최종 예측을 도출한다. 도출된 결과는 다수결 투표나 가중 평균 방식을 통해 획득되며, 이를 통해 Decision Tree의 단점인 과적합 문제를 완화할 수 있다[32]. 이 기법은 방대한 데이터 처리와 빠른 학습이 가능하며, 복잡한 데이터에서도 높은 예측 정확도를 보이는 강력한 머신러닝 알고리즘으로 평가된다[34].

2.5 통계 분석

본 연구에서는 수집된 데이터를 활용하여 눈을 뜨고 자세를 수행했을 때와 나머지 자세를 수행했을 때, 유의미한 차이가 있는지 검증하고자 하였다. 동일한 피험자들이 같은 조건에서 눈을 뜬 상태와 나머지 자세를 수행하였기 때문에 Paired T-test를 시행하였다. 또한, 유의 수준은 0.05로 설정하였다[35]. 귀무가설로는 두 집단 간 차이가 없다고 설정하였고, 대립 가설로는 두 집단 간 차이가 있다고 설정하였다. p-value 값이 0.05 이하인 경우, 귀무가설을 기각하고 대립 가설을 채택하여 두 조건 간 유의미한 차이가 있다고 간주하였다.

3. 결 과

피실험자들에게 눈을 감거나 무게를 추가하여 관절 움직임의 제약을 주었을 때 고유수용감각의 변동을 측정하고 분석하였다(표 2).

오른팔과 왼팔 측정 시 눈을 떴을 때와 눈을 감았을 때 각도 값과 표준 편차의 차이가 있었다. 모래주머니가 없는 오른팔의 경우 눈을 뜨고 감았을 때의 평균 각도 차이는 0.97$^{\circ}$이었다. 그러나 표준 편차는 눈을 떴을 때 1.59에서 눈을 감았을 때 3.19$^{\circ}$이며, 1.6$^{\circ}$의 차이를 보였다. 모래주머니를 착용한 경우의 각도 차이는 0.65$^{\circ}$이지만 표준 편차는 눈을 떴을 때 1.41$^{\circ}$에서 눈을 감았을 때 2.97$^{\circ}$이며, 1.56$^{\circ}$의 차이를 보였다. 또한, 모래주머니 없이 왼팔에서의 각도 차이는 0.75$^{\circ}$이지만 표준 편차는 눈을 떴을 때 1.08$^{\circ}$에서 눈을 감았을 때 3.14$^{\circ}$로 2.06$^{\circ}$의 차이가 있었다. 추가로 모래주머니가 있는 경우 평균 각도 차이는 0.54$^{\circ}$이지만 표준 편차는 눈을 떴을 때 1.45$^{\circ}$, 눈을 감았을 때 2.41$^{\circ}$로 0.96$^{\circ}$의 차이를 보였다.

표 2 각 자세에 따른 각도 측정 결과

Table 2 Angle measurement results for each posture

Posture

Body Part

Angle(°)

Eye Open

Eye Close

Open vs. Close (p-value)

Eye Open (weight)

Open vs. Open (weight) (p-value)

Eye Close (weight)

Close vs. Close (weight) (p-value)

Raise Arms Sideways

Right Arm

90.87± 1.59

91.84± 3.19

0.19

89.36± 1.41

0.03*

88.71 ±2.97

0.06

Left Arm

91.13± 1.08

91.88± 3.14

0.40

89.77± 1.45

0.02*

90.31 ±2.41

0.26

Raise Legs Sideways

Right Leg

45.0 ±1.17

46.03± 2.41

0.13

44.52 ±1.02

0.16

45.42± 1.01

0.33

Left Leg

44.91± 1.15

45.74 ±2.04

0.21

45.0 ±1.07

0.83

45.75± 3.31

0.44

평균 표준 편차(° ), *p < 0.05

발을 올리는 자세를 측정했을 때에도 팔을 올리는 자세와 비슷하게 유사한 차이를 보였다. 오른발의 경우의 모래주머니를 착용하지 않았을 때 평균 각도 차이는 1.03$^{\circ}$이지만 표준 편차는 눈을 떴을 때 1.17에서 눈을 감았을 때 2.41$^{\circ}$로 1.24$^{\circ}$의 차이를 보였다. 반면, 모래주머니를 착용한 경우의 평균 각도 차이는 0.9$^{\circ}$이지만 눈을 떴을 때의 표준 편차는 1.02$^{\circ}$이고 눈을 감았을 때는 1.01$^{\circ}$로 0.01$^{\circ}$의 차이가 발생하였다. 또한, 모래주머니를 착용하지 않는 왼발의 평균 각도 차이는 0.83$^{\circ}$이지만 표준 편차의 경우 눈을 떴을 때 1.15$^{\circ}$에서 눈을 감았을 때 2.04$^{\circ}$로 0.89$^{\circ}$의 차이를 보였다. 모래주머니를 착용한 경우의 평균 각도 차이는 0.75$^{\circ}$이지만 표준 편차는 눈을 떴을 때 1.07$^{\circ}$에서 눈을 감았을 때 3.31$^{\circ}$로 2.24$^{\circ}$의 차이를 보였다.

발을 45$^{\circ}$ 올린 자세의 표준 편차가 팔을 90$^{\circ}$로 올린 자세를 수행했을 때보다 더 작은 경향을 보였다. 모래주머니 없이 눈을 감았을 때 오른팔과 왼팔의 표준 편차는 3.19$^{\circ}$, 3.14$^{\circ}$이며, 오른발과 왼발의 경우 2.41$^{\circ}$과 2.04$^{\circ}$이다. 이것은 팔을 올리는 자세를 수행했을 경우 눈을 감거나 모래주머니를 착용했을 때 자세를 수행하는 것이 더 불안정했고 어려웠다는 것을 알 수 있었다. 추가로 모래주머니를 착용한 때에도 착용하지 않은 경우와 마찬가지로 평균 각도는 유사했다. 그러나 눈을 감고 자세를 수행했을 때 표준 편차가 증가했음을 알 수 있었다. 이는 약간의 저항이나 제한이 자세를 수행하는 것에 변동성을 증가시킨 것을 알 수 있었다.

그림 4. 각도의 분산 범위 그래프

Fig. 4. Angle variance range graph

../../Resources/kiee/KIEE.2025.74.8.1373/fig4.png

또한, 실험 대상자들의 전체 각도 분포를 봤을 때 눈을 감고 자세를 수행했을 때가 눈을 뜨고 수행했을 때보다 더 넓게 분포 되었다(그림 4). 오른팔을 90$^{\circ}$로 올리는 경우 모래주머니 없이 눈을 뜬 경우 이상치를 제외한 최댓값과 최솟값의 차이는 3.26$^{\circ}$이지만 눈을 감은 경우의 최댓값과 최솟값의 차이는 8.93$^{\circ}$이었다. 모래주머니를 착용하여 눈을 뜬 경우의 최대, 최소의 차이는 2.22$^{\circ}$이지만 눈을 감는 경우 차이가 9.81$^{\circ}$이었다. 왼팔을 90$^{\circ}$ 올릴 때도 유사한 차이를 볼 수 있었다. 먼저 모래주머니 없이 눈을 떴을 때 최댓값과 최솟값의 차이는 3.40$^{\circ}$이지만 눈을 감았을 경우의 차이는 10.22$^{\circ}$이었다. 모래주머니를 착용한 경우 눈을 떴을 때의 최댓값과 최솟값의 차이는 4.81$^{\circ}$이고, 눈을 감았을 때의 최댓값과 최솟값의 차이는 7.22$^{\circ}$이었다. 오른발을 45$^{\circ}$ 올리는 경우 모래주머니 없이 눈을 감았을 때 최댓값, 최솟값 차이는 3.71$^{\circ}$이고, 눈을 감았을 때 최댓값과 최솟값의 차이는 7.89$^{\circ}$이었다. 모래주머니를 착용하고 눈을 떴을 때 최대, 최소 차이는 3.25$^{\circ}$이고, 눈을 감았을 때 차이는 3.57$^{\circ}$이다. 또한, 왼발을 45$^{\circ}$ 올리는 경우 모래주머니 없이 눈을 떴을 때의 최댓값, 최솟값 차이는 3.40$^{\circ}$이고, 눈을 감았을 때의 최대, 최소의 차이는 5.24$^{\circ}$이었다. 모래주머니를 착용한 경우에는 눈을 떴을 때는 4.11$^{\circ}$의 차이가 있었고, 눈을 감았을 때는 11.67$^{\circ}$이다. 따라서 눈을 떴을 때보다 눈을 감았을 때가 더 넓은 분포가 있음을 알수

있었다. 결과적으로 정상적으로 측정한 값보다 모래주머니 2 kg을 사용하여 위치 감각에 제약을 가했을 때, 눈을 감고 균형 감각에 제약을 가했을 때 표준 편차가 크게 나타났다(표 2). 이는 눈을 감고 측정을 한 것이 자세를 수행하기 더 어렵다는 것을 보여주었다.

Paired T-test를 사용하여 Eye Open을 기준으로 나머지 3개의 상태와 평균 각도를 비교하였으며, 유의 수준은 0.05로 설정하였다. 결과는 표 2에 제시된 바와 같이, Right Arm과 Left Arm에서 눈을 뜬 상태와 눈을 뜨고 무게를 추가하여 부하를 가했을 때, p-value 값이 각각 0.03과 0.02로 유의미한 차이를 보였다. 이는 모래주머니 착용에 따른 위치 감각 제한의 영향이 상대적으로 크게 작용했음을 확인할 수 있었다.

표 3은 Decision Tree와 Random Forest를 사용한 분류 결과를 보여준다. Random Forest 모델에서 Right Arm과 Right Leg에 대한 성능이 모두 0.96으로 가장 높은 성능을 보였다. 이는 Random Forest가 다양한 트리 조합을 통한 일반화가 가능하기 때문으로 사료된다. 반면, Decision Tree의 Right Arm과 Right Leg, Random Forest의 Left Arm에서는 0.81로 가장 낮은 성능을 보였다. 이러한 결과는 Decision Tree가 특정 패턴에 민감하게 반응할 수 있다고 해석할 수 있다. 또한, Random Forest는 중요한 특징(feature)을 선택하고, 과적합을 미리 방지하면서 데이터를 효과적으로 학습하기 때문에 Decision Tree에 비해 높은 성능을 보였다. 본 연구에서처럼 Right Arm에서 각도 데이터의 정확도가 Decision Tree에서는 0.81이었지만, Random Forest에서는 0.96으로 더 명확하여 안정적으로 학습했을 가능성이 있다.

표 3 각 자세에 따른 다양한 머신러닝 모델의 분류 결과

Table 3 Classification results of various machine learning models for each posture

Model

Body Parts

Acc

PR

RE

F1

Decision Tree

Right Arm

0.81

0.81

0.81

0.81

Left Arm

0.86

0.87

0.86

0.86

Right Leg

0.81

0.81

0.81

0.81

Left Leg

0.88

0.88

0.88

0.87

Random Forest

Right Arm

0.96

0.96

0.96

0.96

Left Arm

0.81

0.81

0.81

0.81

Right Leg

0.96

0.96

0.96

0.96

Left Leg

0.88

0.88

0.88

0.87

따라서 이 결과를 통해 Random Forest 모델이 고유수용감각 평가를 자동화하고 정밀도를 높이는 데 있어서 안정적이고 신뢰할 수 있는 성능을 보여준다는 것을 확인했다.

4. 고 찰

근력 약화와 위치 및 균형 감각의 저하는 일상생활을 하거나 노동 활동과 같은 모든 움직임 영역에 있어서 부정적인 영향을 미칠 수 있다. 또한, 추가적인 질병 및 부상이 발생될 수 있기에 이를 미리 예방하고 측정하기 위한 노력이 계속되고 있다. 따라서 고유수용감각을 적절하게 유지하는 것은 매우 중요하며, 신체 움직임을 수행하는 것에 필수적인 감각이다.

본 연구에서는 고유수용감각이 저하된 상태를 재현하여 관절의 각도와 움직임에 대한 분석을 수행하였다. 우리는 고유수용감각의 변동성 확인을 위해 관절의 각도를 측정하였다. 제안한 자세는 양팔을 90$^{\circ}$로 올리는 자세와 한 다리씩 각각 옆으로 45$^{\circ}$로 올린 자세이다. 이때, 위치 감각과 균형 감각에 대한 영향을 알아보고자, 부하가 작지만 위치 감각에 영향을 줄 수 있는 2 kg의 모래주머니를 착용하도록 했으며 눈을 감은 상태를 통해 균형 감각의 저하를 유발하여 정상 성인의 고유수용감각을 제한하였다. 오른팔을 들어 올렸을 경우 모래주머니를 착용과는 상관없이 모두 눈을 감았을 때 변동성과 각도의 분포가 더 넓었던 것을 알 수 있다. 왼팔을 들어 올린 경우에도 모래주머니 착용과 상관없이 오른팔을 올렸을 때와 유사한 결과가 나왔으며 눈을 감았을 때 표준 편차가 더 컸다. 왼발로 지탱하고 오른 다리를 들어 올린 경우, 눈을 감은 상태가 전체적으로 더 표준 편차가 높았으며, 오른발을 지탱하고 왼 다리를 들었을 경우도 동일하다. 이를 통해 고유수용감각이 제한된 상태에서 자세를 유지하는 것이 더 어렵다는 것을 확인할 수 있었으며, 눈을 감았을 때와 모래주머니를 추가했을 때 고유수용감각의 역할이 중요한 것을 알 수 있었다. 또한, 유의성 검사 결과로 시각적 제한과 위치 감각 제한에서 유의미하게 증가하였으며, 고유수용감각의 변동성을 정량적으로 확인하였다. 특히, Right Arm과 Left Arm에서 위치 감각 제한의 영향을 받아 안정성이 저하되는 경향을 더 보여주었다.

머신러닝 분석에서는 Decision Tree와 Random Forest를 활용하여 고유수용감각 데이터를 분류하였다. Random Forest에서는 Right Arm과 Right Leg에서 0.96으로 유의미한 성능을 보여주었으나, 나머지 자세에서는 데이터 간 유사성이 크기에 모델이 고유한 패턴을 학습하기 어려웠을 가능성이 있다. 또한, 본 연구에서는 고정된 자세에서의 데이터로 분석했지만, 자세 수행 속도 시간처럼 시간에 따른 움직임에 대한 데이터는 분석하지 못하였다.

본 연구에서는 뇌졸중 및 편마비 환자와 같이 근력 수행의 능력이 저하되었거나 시각으로부터 정보를 활용하기 어려워하는 사람들과 같이 유사한 실험 환경을 구현하였고, 모래주머니를 착용하여 근력에 부담을 주거나 눈을 감고 자세를 수행함으로써 균형 감각 및 위치 감각에 제한을 두고 실험을 진행하였다.

그러나 본 연구는 비접촉식 센서인 Kinect를 사용하여 고유수용감각을 자동으로 수치화하고 분석하였다는 측면에서 의의가 있다. 향후 연구에서는 본 연구의 결과를 통해 실제 뇌졸중 및 편마비 환자들을 측정함으로써 신뢰도 높은 후속 연구를 수행하며, 다양한 상태에서의 감각을 평가하고자 한다.

5. 결 론

본 연구는 고유수용감각을 평가하기 위해 Unity 3D와 Kinect를 활용한 시스템을 개발하고, 이를 통해 실험 대상자들에게 관절 움직임의 제약을 줌으로써 고유수용감각의 변동을 분석하였다. 실험 결과, 피실험자들에게 모래주머니를 착용하게 하여 신체 움직임과 눈을 감는 것으로 균형 감각 및 위치 감각에 제약을 주었다. 제약을 주지 않은 일반적인 환경에서 실험을 수행했을 때보다 특정 감각에 제약을 준 결과의 변동성이 컸다. Paired T-test를 통해 고유수용감각은 시각적 제한과 위치 감각 제한 조건에서 유의미하게 변동함을 확인할 수 있었다. 특히 팔 자세는 시각 제한의 영향을 더 크게 받았으며, 이는 시각 정보가 자세 안정성 유지에 중요한 역할을 한다는 점을 시사한다. 머신러닝 분석 결과, Random Forest에서 0.96의 성능을 보여주었으며, 고유수용감각의 변화를 효과적으로 분류하였다. 이는 Kinect를 활용한 분석 시스템의 신뢰성을 보여주었다. 종합적인 결과를 볼 때, 고유수용감각이 저하된 경우에 신체 균형 유지 및 자세 수행 정확도가 낮아질 수 있음을 알 수 있었다. 본 연구는 움직임 영역에 있어 자동적인 분석이 가능한 프로그램과 환경을 구축하여 재활 및 훈련 프로그램 개발에 기여할 것이라고 사료된다.

Acknowledgements

This work was supported by the Soonchunhyang University Research Fund.

References

1 
K.-H. Kim and S.-H. Jang, “A Convergence study on effects of progressive proprioceptive motor program training on proprioception and balance ability in chronic stroke patients,” Journal of the Korea Convergence Society, vol. 9, no. 10, pp. 81–91, 2018.URL
2 
Hyun-Seung Song, Hye-Ryoung Park, Si-Jeol Bae, Ji-Seong Park, Hyeung-Tae Cho, Ha-Hee Jang and Su-Jin Kim, “The effects of proprioceptive exercises on balance ability after stroke,” Korean Proprioceptive Neuromuscular Facilitation Association, vol. 8, no. 2, pp. 1-8, 2010.URL
3 
Y. Sharon, “Proprioception and the Sense of Ownership,” Korea journal of cognitive science, vol. 34, no. 3, pp. 243-257, 2023.URL
4 
M.-C. Kim, N.-J. Kim, M.-S. Lee and S.-R. Moon, “Validity and Reliability of the Knee Joint Proprioceptive Sensory Measurements using a Smartphone,” Journal of Korean Society of Physical Medicine, vol. 10, no. 4, pp. 15–23, 2015.URL
5 
P. W. Duncan, G. P. Samsa, M. Weinberger, L. B. Goldstein, A. Bonito, D. M. Witter, C. Enarson and D. Matchar, “Health Status of Individuals with Mild Stroke,” Stroke, vol. 28, no. 4, pp. 740-745, 1997.DOI
6 
J. C. Rothwell, “Control of Human Voluntary Movement,” Springer Science & Business Media, pp. 1-520, 2012.URL
7 
S. R. Lord, R. D. Clark and I. W. Webster, “Physiological factors associated with falls in an elderly population,” Journal of the American Geriatrics Society, vol. 39, no. 12, pp. 1194-1200, 1991.DOI
8 
J.-H. Kim, “Proprioception After Total Knee Replacement,” PNF and Movement, vol. 9, no. 1, pp. 39–45, 2011.URL
9 
Byung Ill Lee, M.D., Jae Eung Yoo, M.D., “Proprioception of the Anterior Cruciate Ligament,” Journal of Korean arthroscopy society, vol. 1 no. 1, pp. 20-25, 1997.URL
10 
Se-Hwan Kim, Kyung-Mook Seo, Don-Kyu Kim and Si-Hyun Kang, “Reliability of Passive Knee Joint Position Sense Test,” Annals of Rehabilitation Medicine, vol. 34, no. 5, pp. 560-564, 2010.URL
11 
Eun-Soo Park, Sang-Gyo Seo, Ho-Seong Lee, “Correlation between Chronic Ankle Instability and Center of Pressure Using Pedobrarograph,” J Korean Foot Ankle Surg, vol. 24, no. 1, pp. 14-18, 2020.URL
12 
Hyun-Seung Song, Hye-Ryoung Park, Si-Jeol Bae, Ji-Seong Park, Hyeung-Tae Cho, Ha-Hee Jang, Su-Jin Kim, “The effects of proprioceptive exercises on balance ability after stroke,” PNF and Movement, vol. 8, no. 2, pp. 1-8, 2010.URL
13 
J. Lee and S.-H. Jang, “The Effect of Ability to Balance Sensory Integration Exercise for Adults,” The Journal of Korean Academy of Physical Therapy Science, vol. 24, no. 2, pp. 36–44, 2017.URL
14 
Sang-Yub Kim, Chan-Kyu Kim, Sik-Dae Ko, “Pain of Industrial Workers with Chronic Lateral Epicondylitis and Changes in Joint Position Sense according to Proprioception Improvement Training,” The Journal of digital policy & management, vol. 11, no. 4, pp. 285–292, 2013.URL
15 
Jin-Mi Kim, Kyeong-M Kim, “The Review of Proprioceptive Activities in Sensory Integration Intervention,” Journal of Korea Proprioceptive Neuromuscular Facilitation Association, vol. 3, no. 1, pp. 55–66, 2005.URL
16 
Hyun-Ji Woo, Mi Yu, Chul-Un Hong, Tae-Kyu won, “Development of Personalized Exercise Prescription System based on Kinect Sensor,” The Journal of the Korea Contents Association, vol. 22, no. 3, pp. 593-605, 2022.URL
17 
Sang-Beom Lee and Yo-Sung Ho, “Intermediate View Synthesis Method using Kinect Depth Camera,” Smart media journal, vol. 1, no. 3, pp. 29–35, 2012.URL
18 
J. Yoon, “A Motion Capture and Mapping System: Kinect Based Human-Robot Interaction Platform,” Journal of the Korea Academia-Industrial cooperation Society, vol. 16, no. 12, pp. 8563–8567, 2015.URL
19 
Ross A. Clark, Yong-Hao Pua, Karine Fortin, Callan Ritchie, Kate E. Webster, Linda Denehy, Adam L. Bryant, “Validity of the Microsoft Kinect for assessment of postural control,” Gait & Posture, vol. 36, no. 3, pp. 372-377, 2012.DOI
20 
Mobini, A., Behzadipour, S. & Saadat Foumani, M., “Accuracy of Kinect’s skeleton tracking for upper body rehabilitation applications,” Disability and Rehabilitation: Assistive Technology, vol. 9, no. 4, pp. 344-352, 2013.DOI
21 
Kim, Sung-Ho, “Realtime 3D Human Full-Body Convergence Motion Capture using a Kinect Sensor,” Journal of Digital Convergence, vol. 14, no. 1, pp. 189–194, 2016.URL
22 
M. do Carmo Vilas-Boas, H. M. P. Chou pina, A. P. Rocha, J. M. Fernandes and J. P. S. Cunha, “Full-body motion assessment: Concurrent validation of two body tracking depth sensors versus a gold standard system during gait,” Journal of Biomechanics, vol. 87, pp. 189-196, 2019.DOI
23 
Chae Young Soo, “A Serious Game Design and Prototype Development for Rehabilitation using KINECT Tool,” Journal of Korea Multimedia Society, vol. 17 no. 2, pp. 248–256, 2014.URL
24 
Kyoung-Shin Park, “Development of Kinect-Based Pose Recognition Model for Exercise Game,” KIPS Transactions on Computer and Communication Systems, vol. 5, no. 10, pp. 303–310, 2016.URL
25 
Seung-Buhm Park, Dong-Soo Cho, Hoi-Sung Kee, Rae-Young Park, Seo-Ra Yoon and Kwang-Ik Jung, “Effects of Muscle Fatigue on Shoulder Proprioception,” The Journal of Korean academy of rehabilitation medicine, vol. 34, no. 1, pp. 54-58, 2010.URL
26 
Torbjörn Ledin, P.A. Fransson, M. Magnusson, “Effects of postural disturbances with fatigued triceps surae muscles or with 20% additional body weight,” Gait & Posture, vol. 19, no. 2, pp. 184-193, 2004.DOI
27 
Do-kyu Kim, Eun-hy Ko, Kang-sung Lee, Heon-seoc Cynn, “The Influences of Visual Information and Different Elevations of Medially Wedged Insoles on Knee Joint Proprioception in Healthy Persons,” Physical Therapy Korea, vol. 12, no. 1, pp. 22-27, 2005.URL
28 
D. Birchfield and M. Johnson-Glenberg, “A next gen interface for embodied learning: SMALLab and the geological layer cake,” International Journal of Gaming and Computer-Mediated Simulations (IJGCMS), vol. 2, no. 1, pp. 49-58, 2010.DOI
29 
C. Y. Yeo et al., “Evaluation of Rehabilitation Exercise Capability in Individuals with Cerebral Palsy Using Machine Learning Based on Joint Angle Data,” Journal of Rehabilitation Welfare Engineering and Assistive Technology, Rehabilitation Engineering and Assistive Technology Society of Korea, vol. 17, no. 4, pp. 289–302, 2023.URL
30 
Donggil Kang, WenXing Yu, HyungJun Cho, “Decision Tree for Mode Estimation,” Journal of the Korean Data Analysis Society, vol. 25, no. 3, pp. 903-911, June 2023.URL
31 
J.-M. Yun, Y.-S. Song, G. J. Bak and S.-K. You, “Prediction of Landslide Probability around Railway using Decision Tree Model,” Journal of the Korean Geosynthetics Society, vol. 16, no. 4, pp. 129–137, Dec. 2017.URL
32 
Jeong-Kyun Kim, Kang Bok Lee and Sang Gi Hong, “ECG-based Biometric Authentication Using Random Forest,” Journal of the Institute of Electronics and Information Engineers, vol. 54, no. 6, pp. 100–105, 2017.URL
33 
Seung Beom Shin, Hyung Jun Cho, “Correlated variable importance for random forests,” The Korean journal of applied statistics, vol. 34, no. 2, pp. 177–190, 2021.DOI
34 
Sung Hee Mun, Chil woo Le, “Head Pose Estimation with Accumulated Historgram and Random Forest,” Smart media journal, vol. 5, no. 1, pp. 38–43, 2016.URL
35 
Sang-Boo Kim and Tae-min. Kim, “A Statistical Approach to Paired versus Group Comparisons,” Korean Journal of Applied Statistics, vol. 19, no. 2, pp. 231–240, 2006.URL

저자소개

윤주원(Joowon Yun)
../../Resources/kiee/KIEE.2025.74.8.1373/au1.png

Joowon Yun received B.S. degree at Department of Medical IT Engineering from Soonchunhyang University, Asan, Korea, in 2025. His research interests include rehabilitation systems, motion capture and machine learning.

E-mail : 20195128@sch.ac.kr

김은빈(Eunbin Kim)
../../Resources/kiee/KIEE.2025.74.8.1373/au2.png

Eunbin Kim received her B.S. and M.S. and Ph.D. degree from Soonchunhyang University in 2019, 2021 and 2025, respectively. Her current research interests include Artificial Intelligence for Medical Image.

E-mail : ebkim0608@sch.ac.kr

이언석(Onseok Lee)
../../Resources/kiee/KIEE.2025.74.8.1373/au3.png

Onseok Lee received the B.S., M.S., and Ph.D. degrees from Korea University, in 2005, 2007, and 2011, respectively, Currently, he is a Professor in Medical IT Engingeering, Soonchunhyang University, Asan, Korea.

E-mail : leeos@sch.ac.kr