딜레마 토론 기반 인공지능 윤리교육 모델 개발
초록
인공지능 기술의 빠른 발전은 사회 전 영역을 혁신적으로 변화시키고 있다. 그러나 개발 과정에서 윤리적 요소를 소홀히 하여 다양한 윤리문제가 발생하고 있으며, 이는 개발 주체가 윤리적 가치보다 경제적 가치를 중시하기 때문이다. 이 상황에서 윤리적 개발을 촉진할 수 있는 주체는 대중이며, 대중은 윤리적 관점에서 인공지능을 바라보고 판단할 수 있는 능력을 갖추어야 한다. 이에 본 연구는 인공지능 윤리감수성과 윤리적 판단력 신장을 위한 교육 모델을 개발하였다. 교육 모델은 딜레마 토론 수업모형에 인공지능 윤리감수성 요소를 결합하여 딜레마 설정, 딜레마 이해, 토론, 실천 동기 강화의 4단계로 구성하였다. 개발한 교육 모델은 7인의 윤리교육 전문가와 7인의 인공지능 교육 전문가에게 타당도 검증을 받았고, 초등교사 11인에게 수준의 적절성을 확인받았다. 본 연구에서 개발한 인공지능 윤리교육 모델은 초중등 학생을 대상으로 인공지능 윤리교육을 하려는 교사들에게 유용하게 활용될 것으로 기대된다. 이를 통해 학생들은 윤리적 관점에서 인공지능을 이해하고, 윤리적 판단력을 기를 수 있을 것이다.
Abstract
The rapid development of AI technology is transforming all areas of society innovatively. However, various ethical problems arise by neglecting ethical factors in the development process, because the development subject values economic values over ethical values. In this situation, the subject that can promote ethical development is the public, and the public should have the ability to look at and judge AI from an ethical point of view. Therefore, this study developed an educational model for enhancing AI ethical sensitivity and ethical judgment. The educational model consisted of four stages: setting a dilemma, understanding a dilemma, discussion, and strengthening motivation for practice by combining the AI ethical sensitivity element with the dilemma discussion class model. The developed educational model was verified for validity by 7 ethics education experts and 7 AI education experts, and the level of appropriateness was confirmed by 11 elementary and middle school teachers. The AI ethics education model developed in this study is expected to be usefully used by teachers who want to conduct AI ethics education for elementary and middle school students. Through this, students will be able to understand AI from an ethical point of view and develop ethical judgment.
Keywords:
AI Ethics Sensitivity, Ethical Judgment, AI Ethics, Dilemma, Discussion키워드:
인공지능 윤리감수성, 윤리적 판단력, 인공지능 윤리, 딜레마, 토론1. 서론
인공지능 기술의 발전으로 우리 생활 전반에 인공지능이 밀접하게 자리하게 되었다. 뉴스에서는 연일 새롭게 개발되고 진화된 인공지능 기술을 소개하고 있고, 우리 일상에서 인공지능 기술이 적용된 사물을 찾아보는 것이 어렵지 않게 되었다. 이에 따라 인공지능은 전기처럼 우리에게 엄청난 편리함을 주는, 이제는 없어서는 안 될 존재가 되었다[1,2]. 그러나 인공지능이 우리에게 순기능만을 제공하는 것은 아니다. 인공지능의 편향으로 인한 차별이나 개인정보 침해와 같은 인권 문제부터 인공지능 살상무기나 일반 인공지능(AGI)의 위험성과 같이 인간의 생명까지 위협할 수 있는 인공지능의 역기능이 곧 우리 사회를 심각하게 위협할 수 있다고 많은 인공지능 전문가들이 경고하고 있다[3,4].
인공지능으로 인한 사회문제를 가까이 들여다보면 다수의 문제가 기술적인 문제가 아닌 윤리적인 문제이다. 예를 들어 과거 아마존에서 자체 개발한 인공지능 채용시스템의 경우 채용과정에서 남성을 우대한 것으로 인해 문제가 되었다[5]. 이는 과거 지원자의 데이터 분석을 통해 나온 결과를 바탕으로 직원을 선발한 것으로, 아마존에서 의도적으로 여성을 배제하려고 했던 것은 아니었다. 그러나 아마존에서는 새로운 채용시스템으로 선발된 직원이 실제로 더 우수한 능력을 갖췄는지 판단해보지 않고 채용시스템을 폐기하였다. 이는 이 문제가 기술적인 문제가 아니라 성별에 대한 차별과 같은 윤리적인 문제라는 것을 보여준다. 이뿐만 아니라 인공지능으로 인한 개인정보 침해 문제들도 자세히 살펴보면, 기술의 효율성을 높이기 위해 윤리적인 면을 등한시해서 나타나는 경우가 많다. 특히, 인공지능 살상무기 도입의 문제는 대표적인 인공지능 윤리 문제라고 볼 수 있다.
제프리 힌튼 교수는 한 언론과의 인터뷰에서 인공지능의 위험성에 대해서 경고하며, 생화학 무기 사용을 금지한 제네바협약과 같이 인공지능이 인간에게 위협이 되는 방향으로 사용되는 것을 제한할 수 있는 협약이 필요하다고 주장하였다. 그러나 인공지능 기술 개발의 속도 경쟁이 한창인 이때 현실적으로 불가능할 것이라고 이야기하며, 그것이 가능하기 위해서는 대중이 인공지능에 대한 경각심을 가져야 한다고 하였다. 그는 현재 많은 인공지능 개발사에서도 인공지능의 위험성을 인지하고 있으며, 누군가가 지금과 같은 무분별한 인공지능 기술 개발의 속도 경쟁을 멈춰주길 바란다고 이야기하였다[4]. 이러한 위기의식이 소수의 생각이 아니라는 것을 증명이라도 하듯 미국의 비영리단체 ‘생명의 미래 연구소(FLI)는 고급 인공지능 연구 개발을 최소 6개월간 중단하자는 서한을 내었다. 이 서한에는 일론 머스크 테슬라 최고경영자, 스티브 워즈니악 애플 고동 창업자, 인공지능 분야의 석학 스튜어트 러셀 교수 등 1000여 명의 인공지능 전문가들이 서명한 것으로 전해졌다[6].
기업의 목적은 이윤 추구이기 때문에 경제적 가치와 윤리적 가치의 갈등 상황에서 윤리적 가치를 택하기 어렵다. 그러나 이런 기업들도 대중의 여론과 선호가 윤리적 가치에 있다면 인공지능 기술을 개발하고 사용 할 때 윤리적인 요소를 고려할 수밖에 없다. 따라서 인공지능이 윤리적으로 개발되고 사용되게 하려면 대중이 인공지능을 윤리적 관점으로 바라보는 시각을 가져야 하고, 더 나아가 인공지능 윤리문제 상황에서 윤리적 판단을 내리고 이를 행동으로 옮길 수 있어야 한다. 이를 위해 교육계에서는 미래의 인공지능 개발자 혹은 사회의 구성원인 학생들에게 인공지능 윤리감수성과 윤리적 판단력을 길러주는 교육을 실시해야 한다[7].
인공지능 윤리감수성은 인공지능 문제 상황에서 윤리적 문제 상황을 인식하는 능력이고, 윤리적 판단력은 문제 상황이 윤리적으로 옳은지 그른지 판단하는 능력으로 인공지능의 위협으로부터 우리를 지키기 위해 꼭 필요한 역량이다[8,9].
윤리감수성이나 윤리적 판단력에 관한 연구는 도덕 교육을 비롯하여 다양한 분야에서 이미 연구되어 오고 있다. 그러나 아직 인공지능 분야에서는 그와 관련한 연구가 부족하다. 기존 타 분야에서의 관련 연구를 살펴보면 도덕적 판단력 증진을 위한 교육 방법으로 딜레마 토론을 많이 활용하고 있다[9]. 또한, 윤리감수성과 관련하여도 김항인(2004)은 정보윤리 감수성을 발달시키는 방법으로 딜레마를 활용한 토의식 방법을 제안하였고, 미리와 핼카마(2002)도 윤리감수성 향상을 위한 방법으로 딜레마 토론 방식을 추천하였다[11,12].
이에 본 연구에서는 인공지능 윤리 딜레마 토론 교육을 활용해 인공지능 윤리감수성과 윤리적 판단력을 신장할 수 있는 모델을 개발하고자 한다.
2. 이론적 배경
2.1 딜레마 토론
딜레마 토론은 인지적 갈등 상황에 직면하게 하여, 서로 다른 윤리적 관점을 인지하게 하고, 서로 토론하는 과정에서 도덕성을 촉진하게 하는 방법이다. 이에 윤리적 판단력을 기르기 위한 주요 방안으로 교육에 활용하고 있다[9].
홍성훈(2009)은 의과대학생의 윤리·인성 교육을 위해 딜레마 토론 방식을 적용하였다. 적용결과 딜레마 토론 방식은 의과대학생의 도덕적 판단력을 높이는 데 효과가 있는 것으로 나타났다[13]. 강민겸(2019)은 중학교 도덕과 수업시간에 도덕적 딜레마 기법을 활용한 청렴 교육을 실시하였고, 이 수업의 결과 학생들의 도덕적 판단력이 향상되었음을 관찰하였다[14]. 또한 주현철(2015)의 고등학교 영어학습자를 대상으로 한 연구에서도 딜레마 토론 수업이 학습자들의 도덕적 판단력에 영향을 주는 것을 확인하였다 [15]. 이처럼 딜레마 토론 방법은 윤리적 판단력을 높이는데 적절한 방법이다. 학생들은 토론 과정에서 자신과 다른 사람의 입장을 모두 경험하게 되고, 이 과정에서 인지적 불균형을 경험하게 된다. 학생들은 이를 극복하기 위해 윤리문제 상황에 대한 설명 방법을 찾게 되고 이 과정에서 더 높은 수준의 윤리적 판단을 할 수 있다[10].
딜레마 토론 방법은 윤리적 판단력 뿐 아니라 다양한 영역의 윤리적 감수성에도 영향을 미친다는 연구 결과가 있다. 김성덕(2015)은 딜레마 토론 방법을 활용한 과학윤리교육 프로그램이 윤리적 판단력뿐 아니라 과학윤리 감수성에 영향을 미친다는 연구 결과를 내어놓았고, 딜레마 토론 기법을 활용한 이은항(2014)의 연구에서도 학습자의 윤리감수성이 향상된 것을 확인할 수 있다[15,16]. 또한 문미희(2007)의 연구에서도 딜레마 토론 방법이 교사의 인권감수성을 높여준 것으로 나타났다[17]. 그러나 홍성훈(2000)의 의과대학생을 대상으로 한 연구에서는 윤리적 판단력은 향상되었으나 의료 윤리 감수성(MEST)은 향상되지 않았다[18]. 이는 윤리적 감수성이 가지고 있는 상황 맥락적 특수성 때문으로, 인공지능 윤리감수성을 키우기 위해서는 인공지능 윤리문제 상황을 잘 반영한 딜레마를 교육에 활용하는 것이 중요하다[19].
딜레마 토론 방법은 인지발달론에 이론적 토대를 두고 있어 일반적으로 도덕적 판단력 향상에 초점을 두게 된다[20]. 그러나 Rest(1983)의 4구성 요소 모형에 따르면 도덕적 감수성은 도덕적 판단력보다 먼저 작동하는 요소로 도덕적 판단력이 아무리 뛰어나도 특정 사안이 도덕적인 상태라는 것을 지각·해석하지 못한다면 도덕적 행동은 나타나지 않을 것이다. 따라서 딜레마 토론 교육 프로그램을 개발할 때 도덕적 감수성과 도덕적 판단력을 모두 목표로 하여 개발할 필요가 있다[13,21].
2.2 윤리적 판단력
‘도덕’과 ‘윤리’는 서로 밀접하게 연결되어 있지만 사용되는 맥락에서 약간의 차이가 있다. ‘도덕’은 일상의 맥락에서 주로 사용되는 용어이고, ‘윤리’는 보다 전문적이거나 학문적인 맥락에서 사용되는 용어이다[7]. 본 연구에서는 ‘도덕’과 ‘윤리’ 용어가 혼재되어 사용되고 있다. 이는 각 연구자가 사용한 용어를 그대로 옮겨왔기 때문으로 본 연구에서는‘도덕’과 ‘윤리’의 의미를 동일하게 해석한다.
윤리적 판단력이란 가능한 행동은 개인이 문제 상황에 직면했을 때 도덕적 가치에 기반하여 옳고 그름을 판단하는 능력으로, 인지적 도덕성과 관련된 요소이다[22].
콜버그는 도덕적 판단력을 도덕성 그 자체로 간주하고 “도덕적 사고와 도덕적 행동은 일치한다”하였다. 그리고 도덕적 판단력을 불가역적이며 보편·불변적인 순차성을 지니는 6단계로 나누었다. 그의 제자인 볼래트는 가상적 도덕딜레마에 대한 집단 토론으로 도덕적 판단력의 단계를 높일 수 있다는 연구 결과를 제시하였다[23].
콜버그가 도덕성을 인지적 관점에서 도덕적 판단력으로 정의한 것과 달리 레스트는 도덕성을 인지·정의·행동의 종합적인 관점에서 바라보았다. 그는 도덕적 행동을 위해서는 4가지 요소가 충족되어야 한다고 하였고 그중 하나의 요소로 도덕적 판단력을 제시하였다. Rest의 이론에 의하면 도덕적 판단은 도덕적 감수성에 의해 문제 상황의 인식과 가능 행동이 미치는 영향의 지각이 이뤄지고 난 뒤 그 행동이 도덕적으로 정의로운가를 판단하는 것이다. 따라서 콜버그의 이론 체계에서 도덕적 판단이 곧 도덕성으로 간주 되던 것에 비해 Rest의 이론에서는 도덕성을 구성하는 하나의 요소이다[21].
이러한 윤리적 판단력과 관련한 정보 분야 선행 연구를 살펴보면 다음과 같다. 김항인(2005)은 도덕판단력 검사를 응용하여 정보윤리 판단력 검사 도구를 만들고, 이를 활용해 초등학생들의 정보윤리판단력을 측정하였다. 이 연구에 따르면 정보윤리 판단력 검사와 기존의 도덕판단력 검사는 유사한 결과를 보였다[24]. 김민선(2012)은 중·고등학생들의 정보윤리판단력 측정을 위한 이슈 중심의 딜레마를 개발하였다[25]. 최근에는 인공지능 분야에서도 윤리적 판단력의 중요성을 인식하고 이를 측정하려는 시도가 이루어지고 있다.[8]
2.3 인공지능 윤리감수성
인공지능 윤리감수성은 레스트의 도덕성 4 구성 요소인 도덕적 감수성을 인공지능에 적용한 것이다.
도덕성은 지금까지 주로 도덕적 사고(인지)와 도덕적 정서, 도덕적 행동의 세 영역으로 연구되어왔다. 콜버그는 도덕성 발달 이론을 처음 주창하며 도덕성의 인지적인 측면을 강조하고, 도덕적 사고(판단)능력이 곧 도덕성이라고 정의하였으나, 도덕적 사고가 반드시 도덕적 행동을 담보하지 않는 사실은 누구나 주지하고 있는 사실이다. 때로는 도덕적 사고능력이 비도덕적인 행동을 감추거나 방어하는데 사용될 수도 있기 때문이다[26].
레스트는 콜버그와 달리 도덕적 행동에 주목하며 도덕적 행동을 가능하게 하는 4가지 요소로 도덕적 감수성, 도덕적 판단력, 도덕적 동기화, 도덕적 품성화를 제시하였고, 이 중 제1요소가 도덕적 감수성이다.
도덕적 감수성은 특정 상황에 내포된 도덕적 문제 상황을 지각하고 해석하며, 문제 상황이 미칠 영향을 헤아릴 수 있는 능력을 말한다. 그동안 심리학 분야의 연구를 종합해 보았을 때 사람들은 간단한 도덕적 문제 상황을 지각·해석하는 것에도 어려움을 겪는 것으로 나타났으며, 타인의 필요를 인지하는 감수성에서도 큰 개인차가 있는 것으로 확인되었다. 그리고 이러한 차이가 도덕적 행동을 저해하는 요인으로 밝혀졌다[27,28].
도덕적 감수성이 도덕적 행동을 발현하는데 주요한 요인이라는 이론이 등장함에 따라 도덕적 감수성을 평가하기 위한 연구가 꾸준히 이어져 왔다. 도덕적 감수성은 도덕적 판단력과 달리 상황 맥락적 영향이 큰 요소로 의료 윤리감수성, 정보윤리감수성, 인권감수성 등의 형태로 각 전문 분야별 도덕적 감수성 혹은 윤리감수성의 형태로 연구가 이루어졌다. 특히, 의료인을 대상으로 한 윤리감수성 연구가 활발히 진행되었다[18,29-31]. Bebeau(1981)의 치과대학 학생을 대상으로 한 연구를 통해서는 도덕적 감수성이 교육을 통해 향상될 수 있으며, 도덕적 감수성과 도덕적 판단력에는 차이가 있음을 확인할 수 있었다[29]. 이지혜(2005)는 의과대학생을 대상으로 한 도덕적 감수성 검사 도구를 개발하고 측정함으로써 도덕적 감수성과 도덕적 판단력과의 관계를 규명하는 연구를 진행하였다[31]. Bebeau(1981)의 연구에서와 마찬가지로 도덕적 감수성과 도덕적 판단력은 낮은 상관을 보였다. 이처럼 윤리감수성과 도덕적 판단력은 도덕적 행동 발현에 중요한 요소이나 한 가지 요소가 상승한다고 다른 요소가 따라서 향상되는 것이 아니다. 따라서 교육 프로그램을 개발할 때 두 가지 요소를 모두 고려한 프로그램을 만들 필요가 있다.
정보 분야에서의 윤리감수성 선행연구를 살펴보면 Mohammadnazar(2019)는 정보 보안과 윤리적 결정 사이에 발생하는 문제를 해결하기 위해 윤리적 지침을 제시하는 것보다 윤리적 감수성을 향상 시키는 것이 중요함을 시사하였다[32]. 국내에서는 김항인(2005)이 정보윤리 감수성 연구를 활발하게 진행하였는 데 정보윤리 판단력을 측정할 수 있는 검사 도구를 개발하고, 이를 통해 도덕적 행동과 도덕적 민감성 간의 상관관계를 확인하였다[33]. 추후 연구에서는 정보윤리 감수성 향상을 위한 방안으로 정보윤리 관련 딜레마를 활용한 토의법을 제안하였다[11]. 또한 그는 Bebeau(1985)의 연구와 자신의 연구를 바탕으로 정보통신 활용교육만으로는 정보윤리 감수성을 향상시킬 수 없음을 이야기 하였다[11]. 이와 같은 선행 연구를 바탕으로 미뤄봤을 때 인공지능 윤리 문제 해결 위해서는 인공지능 윤리감수성향상을 위한 교육이 필요하며, 인공지능 윤리감수성은 인공지능 기술 교육만으로는 향상되지 않는다. 따라서 인공지능 윤리감수성 향상을 위한 전문적인 교육모델이나 프로그램의 개발이 필요하다. 그러나 최근 인공지능 윤리감수성 관련한 연구 동향을 보면 이를 측정하기 위한 검사 도구 개발에 대한 연구가 조금씩 진행되고 있으나 아직 이를 향상 시킬 수 있는 교육 모델이나 교육 프로그램 개발은 부재한 실정이다[6,8].
3. 연구방법
본 연구의 목적은 인공지능 윤리감수성과 윤리판단력 신장을 위한 딜레마 토론 기반 인공지능 윤리교육 모델을 개발하는 것으로 다음의 과정으로 개발되었다.
- 첫째, 선행연구를 통해 인공지능 윤리교육 모델의 필요성을 분석하였다.
- 둘째, 분석한 내용을 바탕으로 딜레마 토론 기반 인공지능 윤리교육 모델 설계하였다.
- 셋째, 인공지능 윤리교육 모델의 타당도를 확보하기 위해 2차례에 걸쳐 윤리교육 전문가와 인공지능 교육 전문가에게 타당도 검증을 받고 이를 바탕으로 모델을 수정하였다.
- 넷째, 초등교육 전문가 11인에게 교육 모델의 활동과정이 학습자 수준에 적절한지 검증을 받았다.
- 다섯째, 모델을 적용한 1차시 수업 프로그램을 초등학교 5학년 학생에게 적용하여 모델의 개선점을 찾고 수정하여 최종 프로그램을 도출하였다.
4. 딜레마 토론 기반 인공지능 윤리교육 모델 개발
4.1 연구 목적 및 대상
본 연구의 목적은 인공지능 윤리감수성과 윤리적 판단력 신장을 위한 딜레마 토론 기반 인공지능 윤리교육 모델을 개발하는 것이다. 교육 모델의 대상은 초등학교 고학년 이상으로 한다.
4.2 선행연구 분석
2022 개정 교육과정에서는 교육과정 개정의 변화 배경의 첫 번째 요인으로 인공지능 기술 발전에 따른 사회의 변화를 꼽고 있다. 이러한 사회적 변화에 따라 많은 인공지능 윤리문제가 발생하고 있고 이에 대비로 인공지능 윤리감수성과 윤리적 판단력을 신장이 필요하다[7]. 윤리감수성은 상황 맥락에 영향을 크게 받는 요소로 인공지능 윤리감수성은 구체적인 인공지능 갈등 상황을 통해 길러져야 한다. 그러나 도덕과 2022 개정 교육과정에서는 인공지능을 로봇에 한정하여 제시하고 있으며 이마저도 인공지능 윤리감수성과 연결 짓고 있지 않다[34]. 교육과정에 제시된 감수성 항목은 통일, 인권, 평화, 생태 감수성뿐이다.
도덕적 판단력는 2022 개정 교육과정에서 도덕과의 목표 중 하나로 도덕 교육에서 매우 중요시되고 있다. 도덕 토론 수업 모형은 다수의 연구를 통해 도덕적 판단력 신장에 효과가 있음이 증명되었으며 초등학교 도덕과 지도서에 제시된 주요 수업 모형 10가지 중 4가지가 토론 수업 모형일 정도로 도덕 판단력 신장을 위한 주요한 방법이다. 김항인(2010)의 연구에 따르면 갈등 상황을 바탕으로 한 토론 수업 모형은 도덕과 교육에서 학생들이 역할극 수업에 이어 두 번째로 흥미를 느끼는 수업 방법이며, 교사들 또한 가장 선호하고 중요하다고 생각하는 도덕 수업 방법으로 토론 수업을 꼽았다[35].
초등학교 도덕과 지도서에 제시되어있는 주요수업 모형 10가지 중 토론 수업모형에 해당하는 4가지 모형을 분석해보았다. 4가지 수업모형은 가치분석 수업모형, 가치 갈등 해결 수업모형, 합리적 의사 결정 수업모형, 도덕적 토론 수업모형으로 모형별 단계와 특징은 Table 1과 같다.
위의 모형을 분석한 결과 다음과 같은 공통점을 도출할 수 있었다.
첫째, 도덕적 판단력 신장을 목표로 한다. 각 모형의 목표와 단계를 분석해보면 도덕적 가치에 기반을 둔 합리적 의사 결정, 즉 도덕적 판단력을 기르는 것을 목적으로 하고 있다는 것을 확인할 수 있다.
둘째, 도덕적 문제 사태를 제시하는 것으로 수업모형이 시작된다. 이는 도덕적 행동이나 선(善)의 사례보다 도덕적 딜레마가 도덕적 판단력 신장에 도움이 된다는 것을 보여주는 것이다.
셋째, 자신의 입장을 정하고 이를 정당화하는 과정과 토론 후 자신의 입장을 수정하거나 잠정적 결정을 하는 단계를 거친다. 단순히 자신의 주장을 합리적인 근거로 설득하는 것에 그치지 않고 다른 사람의 주장이나 근거가 합리적인지 판단하고 자신의 결정을 유지할지 수정할지 숙고할 기회를 제공하고 있다.
이와 같은 공통점은 Galbraith & Jones (1976) 딜레마 토론 수업모형에서도 확인할 수 있다. 이 모형은 딜레마 상황 이해-개인 입장 진술-집단 토론-개인 입장 정립의 4단계로 위의 4가지 모형에 공통된 요소가 간략하게 잘 드러나 있는 모형이다[36].
이에 본 연구에서는 Galbraith & Jones의 딜레마 토론 수업모형의 뼈대에 인공지능 윤리감수성을 향상할 수 있는 요소를 추가하고자 한다.
인공지능 윤리감수성은 Rest의 도덕적 감수성 4 구성 요소 중 제1요소인 도덕적 감수성을 인공지능에 적용한 것이다. 인공지능 윤리감수성의 하위요소는 김은경(2024)의 인공지능 윤리감수성 하위요소를 따랐다[7]. 김은경은 Volker(1984)의 도덕적 감수성 하위요소 중 결과지각을 다시 결과지각과 공감지각으로 나누었는데 이는 타인에 대한 공감을 더욱 강조한 것으로 인간존엄성을 강조하는 우리나라의 인공지능 윤리교육에 더욱 적합하다[7,37]. 이에 따라 본 연구에서는 인공지능 윤리감수성의 하위요소를 다음과 같이 정의한다.
첫 번째 요소는 상황지각으로 인공지능과 관련한 상황에서 윤리적 문제 상황을 발견하고 이를 문제로 인식하는 능력이다.
두 번째 요소는 결과지각으로 인공지능 윤리문제 상황에서의 선택이 어떠한 결과를 가져올지 잠재적으로 상상하고 예측하는 능력이다.
세 번째 요소는 공감지각으로 결과지각에서 한발 더 나아가 예측되는 결과에 영향을 받는 타인의 감정에 공감하는 능력이다.
마지막 요소는 책임지각으로 인공지능 윤리문제의 해결책임을 자신에게 두고 실제 행동으로 실천하려는 의지이다.
4.3 인공지능 윤리교육 모델 개발 및 적용
본 연구에서는 딜레마 만들기-딜레마 이해하기-토론-책임감 가지기의 4단계로 구성된 인공지능 윤리교육 모델을 개발하였다.
딜레마 만들기 단계에서는 인공지능 윤리감수성 하위요소인 상황지각 향상을 위해 인공지능 기술 관련 영상을 보고 윤리적 문제를 찾아 이를 딜레마로 만드는 활동으로 구성하였다.
딜레마 이해 단계는 결과지각과 공감지각 향상을 위해 딜레마 선택에 따른 결과를 예상하고 결과에 영향을 받는 사람들이 느낄 감정에 공감하는 활동으로 구성하였다.
토론 단계는 윤리적 판단력 신장을 위한 단계로 자신의 입장을 발표하고 이를 정당화하는 과정으로 구성하였다. 이 과정에서는 인공지능 윤리교육 사이트‘AI도시를 부탁해’사이트를 활용하여 다른 집단의 의견을 알아보는 활동을 포함하여, 확장된 토론이 이루어질 수 있도록 하였다.
마지막 책임감 가지기 단계는 책임지각을 기르기 위한 단계로 자신의 최종 입장을 정하고 자신의 선택으로 인해 발생할 수 있는 문제를 최소화하기 위해 자신이 할 수 있는 것을 찾고 다짐하는 활동으로 구성하였다.
4.4 전문가 검토 및 교육 모델 개선
모델의 타당도를 확보하기 위해 윤리교육 전문가 7인과 인공지능 교육 관련 전문가 7명 총 14명에게 타당도 검증을 받았다. 윤리교육 전문가는 중등 윤리 교사 6인과 윤리교육 석사학위를 소지한 초등교사 1인으로 이들의 평균 교직 경력은 10.7년이다. 인공지능 교육 전문가는 교수 1인과 교사 6인으로 컴퓨터 교육, 인공지능 융합 교육, 빅데이터 공학, 컴퓨터 공학 등 인공지능과 관련한 석사 이상의 학위를 소지하고 있으며 평균 교육경력은 12.4년이다.
전문가들을 대상으로 본 연구에서 개발한 교육 모델의 각 단계가 그 단계에서 키우고자 하는 윤리 요소를 신장하기에 적합한 활동으로 구성되어 있는지 검토를 받았다. 전문가 타당도는 Lawshe(1975)의 내용 타당도 비율(Content Validity Ratio, CVR) 방법을 활용하였으며 검토 결과는 Table 2와 같다.
CVR방법에 따르면 모수가 14명일 CVR값은 .51을 넘어야 하나 딜레마 만들기 단계의 경우 CVR값이 .47로 전문가 합의가 이루어지지 않았다. 전문가 집단에서는 딜레마 만들기 활동이 상황지각을 넘어서는 응용과 창조가 필요한 활동으로 학생들이 수행하기에 어려운 활동이라고 의견을 제시하였다. 위와 같은 의견에 따라 딜레마 만들기 단계를 딜레마 설정 단계로 바꾸고 딜레마 작성 틀을 제시하여 앞서 나눈 이야기를 딜레마 형식으로 표현하는 것으로 수정하였다. 그 밖에 전문가들의 의견을 바탕으로 수업모델을 정리하고 2차 전문가 검증을 받았다. 검토 결과 CVR값이 모두 0.51을 넘어 전문가의 합의가 이뤄졌다. 구체적인 CVR값은 Table 3과 같다.
4.5 교육 모델 수준 적절성 검증 및 파일럿 테스트
개발된 모델의 학습 활동이 초등학교 고학년 이상의 학생들 수준에 적절한지 평균 교육경력 11.9년의 초등교사 11명을 대상으로 전문가 검증을 실시하였다. 모수가 11명일 때 CVR값은 .59이상이어야 전문가 합의가 이루어졌다고 볼 수 있다. 본 모델의 수준 적절성에 대한 CVR 값은 Table 4에서 볼 수 있듯 .83으로 초등학교 고학년 학생에게 모델의 학습 활동 수준이 적절하다는 것에 대해 전문가 합의가 이루어졌다.
추가로 현장 적용을 통해 시사점을 얻기 위해 C지역 초등학교 5학년 1개 학급 17명의 학생을 대상으로 딜레마 토론 기반 인공지능 윤리교육 모델을 적용한 수업을 1차시 진행하였다. 수업은‘AI 도시를 부탁해’ 사이트에서 제시하고 있는 딜레마 중 하나인 ‘AI 스피커를 활용한 사회 안전망 도입’을 소재로 하였다[38]. 해당 소재는 AI 스피커를 이용해 일상의 소리를 청취하여 노인이나 장애인, 어린이 등이 위기에 처했을 경우 즉각적인 도움을 주는 것과 일상의 소리 청취라는 개인정보 침해 문제에 대한 딜레마를 다루고 있다.
사례 탐색 활동에서 학생들에게 관련 영상을 보여준 후 AI 스피커를 모든 가정에 설치하는 것에 대해 찬성하는지 반대하는지 물어보았다. 그 결과 17명 학생 모두 찬성한다고 응답하였다. 해당 기술이 도입될 때 발생할 수 있는 문제에 대해 의견을 제시한 경우는 한 건도 없었다. 이는 학생들이 인공지능 기술에 관한 긍정적 사례를 접했을 때, 그것을 무비판적으로 수용하는 경향을 보인다는 것을 시사한다. 이는 인공지능 윤리감수성 교육의 필요성을 보여주는 부분이다.
문제 발견 활동에서는 학생들이 발생할 수 있는 윤리적 문제를 찾는 것을 어려워했는데, 이는 관련 기술에 대한 기본 지식이 부족하기 때문으로 보인다. 이에 대한 보완으로 윤리적 문제를 찾는 활동 이후 관련 지식 영상을 보는 활동을 추가하였다.
웹사이트를 활용하여 다른 집단의 찬반 비율을 확인해 보는 활동에 학생들은 흥미를 보였다. 특히 웹사이트에서 다른 사람들의 찬반 근거를 살펴보는 활동은 학생들이 근거를 보충하는 데 큰 도움을 주어 후기 토론 과정에서 더 풍부하고 근거 있는 논의를 할 수 있도록 해주었다.
수업 후 학생들을 대상으로 수업만족도 평가 설문을 실시하였다. 수업만족도 평가 결과는 Table 5와 같다. 대부분의 학생이 수업 내용이 흥미롭고 수업이 재미있었다고 응답하였고. 배워야 하는 내용을 더 잘 이해할 수 있다고 응답하였다.
수업에 대한 소감을 묻는 개방형 질문에 대해서는 ‘AI에 대한 문제도 윤리적이야 한다고 느꼈다.’,‘AI가 일으키는 문제가 많다는 것을 알았고 이로 인해 고통 받는 사람들이 정말 많다는 것을 느꼈다.’라는 응답을 통해 일부 학생들의 인공지능 윤리감수성에 영향을 미쳤을 것이라고 추측해 볼 수 있었다. 이러한 반응은 본 연구에서 개발한 교육 모델 수업을 여러 차시 진행할 경우 인공지능 윤리감수성이 신장 될 것이라는 기대를 하게 했다.
위와 같이 파일럿 테스트 결과를 반영하여 최종 모델을 완성하였다.
5. 최종 인공지능 윤리교육 모델
본 연구에서는 인공지능 윤리교육 모델을 딜레마 설정-딜레마 이해-토론-실천 동기 강화의 4단계로 설계하였다. 교육 모델의 각 단계는 다음과 같다.
5.1 딜레마 설정 단계
딜레마 토론에 활용할 딜레마를 만드는 단계로 기존의 도덕 토론 모형에서 도덕적 문제 사태를 바로 제시하는 것과 큰 차이가 있다.
본 교육 모델에서도 수업 주제가 될 딜레마를 사전에 설정한다. 그러나 일반적인 딜레마 토론 수업에서는 문제 상황이 분명히 드러나는 딜레마를 직접 제시하는 것과 달리 본 모델에서는 딜레마를 직접 제시하지 않고 학습자들이 스스로 딜레마를 만들어내는 것과 같은 과정을 거친다. 먼저 문제 상황이 드러나지 않는 인공지능 기술이 긍정적으로 활용되고 있는 영상을 시청한다. 학습자는 영상을 보고 해당 인공지능 기술이 우리 생활에 도입되었을 때의 긍정적 영향에 관해 이야기를 나눈다. 그다음 해당 기술로 인해 발생할 수 있는 윤리적 문제를 찾아본다. 학습자는 이 단계에서 예상되는 문제를 발견할 수도 그렇지 못할 수도 있다. 이때 교사는 적절한 발문으로 학생들이 문제 상황에 접근하도록 한다. 윤리적 문제를 발견한 뒤에는 윤리적 문제의 발생 이유와 관련된 영상을 시청하게 하여 관련된 지식을 쌓는다. 학습자들에게 처음부터 윤리적 문제 상황 관련 영상을 보여주지 않는 이유는 학습자 스스로 일상적인 상황에서도 윤리적 시각으로 문제를 바라보는 습관을 기르게 하려는 것이다. 학습자는 앞선 활동에서 찾아낸 해당 기술의 긍정적인 부분과 부정적인 부분을 딜레마 작성틀에 기록하여 딜레마 형태로 만든다.
딜레마 설정 단계에서는 인공지능 기술 속에 숨겨진 윤리적 문제 상황을 스스로 찾아보는 과정을 통해 인공지능 윤리감수성의 하위요소 중 상황지각을 기를 수 있다.
5.2 딜레마 이해 단계
딜레마 상황에서 적절한 선택을 하기 위해 문제 상황을 이해하는 단계이다. 이 단계에서는 문제 상황을 명료화하고 선택에 따른 결과가 타인에게 어떠한 영향을 미칠지 예상해 본다. 그리고 이러한 결과로 타인이 어떠한 감정을 느끼게 될지 예상 해보고, 그 감정에 공감해본다. 이것은 윤리문제가 타인에게 가져올 수 있는 잠재적 결과를 상상하고 이해하는 능력인 결과지각과 타인의 감정을 인식하고 공감하는 능력인 공감지각을 기르기 위한 활동이다.
5.3 토론 단계
토론은 둘 이상의 사람들 간에 의사 교환을 하는 집단 상호작용과정으로 본 교육 모델의 토론 단계에서는 내 입장을 선택하고 정당화하는 단계, 다른 의견을 살펴보고 내 입장의 근거를 보충하는 단계, 최종 입장을 정하는 단계로 구성되어 있다. 학습자는 이러한 의사교환 과정 중에 인지적 비평형화를 느껴, 자기중심적 사고에서 벗어나 다른 사람의 입장을 취해보는 관점채택 능력을 키울 수 있다. 또한, 그 과정에서 도덕적 문제를 깊게 이해하게 되어 도덕적 사고력과 판단력을 기를 수 있다[36]. 그러나 초등학생의 경우 인공지능에 대한 이해 부족과 한정된 사고로 인해 활발한 의사 교환이 어렵다. 이에 대한 대응으로 본 모델에서는 ‘AI 도시를 부탁해’라는 인공지능 윤리교육 사이트에서 다른 사람들은 어떠한 선택을 하였는지 그리고 왜 그런 선택을 하였는지 확인해 볼 수 있게 하였다. 이 과정을 통해 학습자는 다양한 사람들의 입장과 근거를 확인하며 자신의 입장을 수정하거나 공고하게 하여 활발한 의사 교환이 이루어질 수 있다.
5.4 실천 동기 강화 단계
자신의 선택에 따라 예상되는 부작용을 최소화하기 위한 방안을 찾아보고 이에 대한 실천을 다짐하는 단계이다. 이 단계에서는 사회적 문제 해결 방법을 찾는 것이 아닌 자신의 수준에서 선택에 따른 부작용을 최소화할 수 있는 방법을 찾아본다. 이는 인공지능 윤리문제에 해결책임을 자신에게 두고 실천 의지를 강화하도록 하는 것으로 이를 통해 학습자의 책임지각 향상을 기대해 볼 수 있다.
6. 결론 및 제언
인공지능 기술의 빠른 발전은 사회 전 영역을 혁신적으로 변화시키고 있다. 그러나 이러한 발전은 경제성과 윤리 사이에서 경제성을 우선시하는 경향으로 인해 윤리적 문제가 발생하고 있다. 이는 인공지능 기술을 개발하는 주체가 공익성보다는 경제성을 중시하는 기업체이기 때문이다. 기업체는 소비자인 대중에게 민감하다. 이것은 인공지능의 윤리적 개발을 촉진하는 주체가 대중이라는 것을 말한다. 즉, 인공지능이 윤리적으로 개발되고 활용되기 위해서 대중이 윤리적 관점에서 인공지능을 판단할 수 있는 능력을 갖추는 것이 중요하다.
이에 따라 본 연구는 학생들이 인공지능 문제를 윤리적 관점에서 바라보고 해결할 수 있도록, 인공지능 윤리감수성과 윤리적 판단력을 향상시키기 위한 인공지능 윤리교육 모델을 개발하는 것을 목표로 한다.
이를 위해 딜레마 토론 수업 모형에 인공지능 윤리감수성 요소를 결합하여 인공지능 윤리교육 모델을 개발하였다. 모델은 딜레마 설정, 딜레마 이해, 토론, 실천 동기 강화의 4단계로 구성하였다. 기존의 딜레마 모델과 비교할 때 딜레마를 직접 제시하지 않고 딜레마 상황을 스스로 구성하게 활동과 인공지능 윤리사이트를 활용해 다른 집단의 의견을 확인할 수 있도록 하는 활동이 특징적이다.
본 연구에서는 개발된 모델의 현장 적용성을 확인하고자 1차시의 딜레마 토론 기반의 인공지능 윤리교육 모델을 적용한 파일럿 수업을 진행하였다. 그러나 파일럿 수업을 1개의 주제로만 진행하여 학생들이 새로운 딜레마가 적용된 모델에서도 동일한 반응을 하는지 충분히 확인하지 못한 점은 연구의 한계점이다. 따라서 후속 연구에서는 ‘AI도시를 부탁해’의 9가지 딜레마를 적용한 프로그램을 적용하여 실제 학습자의 인공지능 윤리감수성과 윤리적 판단력이 향상되었는지 양적 및 질적 연구를 통해 확인할 계획이다.
본 연구에서 개발한 인공지능 윤리교육 모델은 초중등 학생을 대상으로 인공지능 윤리교육을 하고자 하는 교사들에게 유용하게 활용될 것으로 기대된다. 이를 통해 학생들이 윤리적 관점에서 인공지능을 이해하고, 윤리적 판단력을 기를 기회를 제공할 수 있다.
Acknowledgments
본 논문은 한국교원대학교 2024년 국립대학 육성사업교육연구프로그램(ERP)의 지원을 받아 수행한 연구임
References
- Jang, Y., Choi, S., Cho, H. & Kim, H. (2022). Development and Application of Modular Artificial Intelligence Ethics Education Program for Elementary and Middle School Students. Korean Association of Artificial Intelligence Education, 25(5), 1-14. [https://doi.org/10.32431/kace.2022.25.5.001]
- Paeng, D. (2023. July 23). Turning to "AI, Will Be Used Like Electricity" Application Services. Digital Times. https://www.dt.co.kr/contents.html?article_no=2023072302109931081002
- Park, H., (2022). What is post-humanistic AI ethics?: Focusing on the term of ‘Ethical AI’. Korean Association of Artificial Intelligence Education, 25(6), 83-95. [https://doi.org/10.32431/kace.2022.25.6.006]
- CBS Mornings. (2023, March 1). Interview: “Godfather of artificial intelligence” talks impact and potential of AI[Video]. Youtube. https://www.youtube.com/watch?v=qpoRO378qRY&t=1222s
- Peña, A ., Serna, I., Morales, A ., & Fierrez, J. (2020). Bias in multimodal AI: Testbed for fair automaticrecruitment. In Proceedings of the IEEE/CVFConference on Computer Vision and PatternRecognition Workshops (pp. 28-29). [https://doi.org/10.1109/CVPRW50498.2020.00022]
- Future of Life. (2023,). Pause Giant AI Experiments: An Open Letter. Future of Life. https://futureoflife.org/open-letter/pause-giant-ai-experiments, /
- Kim, E. & Lee, Y. (2024). A Study on the Development of AI Ethics Sensitivity Scale. Korean Association of Artificial Intelligence Education, 27(3). 155-168. [https://doi.org/10.32431/kace.2024.27.3.014]
- Lee, H. (2023). Development of Artificial Intelligence Ethics Awareness Scale for Elementary School Students. The Korean Society for Artificial Intelligence, 2(1), 98-127. [https://doi.org/10.59728/JAIE.2023.2.1.98]
- Jeong, S., (2008). Moral Education based on the Debate Learning for the Morality Enhancement - Focused on the Revised Curriculum in 2007 -. The Korean Association of Ethics, 1(70), 239-266. [https://doi.org/10.15801/je.1.70.200809.239]
- Kim, J., Choi, S. , Han, S., Jun, G., Kim, D., Love, M., .& Koh, C. (2000). The implementation of the moral education program in a medical school using dilemma discussion. Korean Journal of Medical Education, 12(1), 53-63. [https://doi.org/10.3946/kjme.2000.12.1.53]
- Kim, H., (2005). A Study on Development of the Information Ethics Sensitivity. Journal of Moral & Ethics Education, 19, 1-24.
- Myyry, L., & Helkama, K. (2002). The role of value priorities and professional ethics training in moral sensitivity. Journal of moral education, 31(1), 35-50. [https://doi.org/10.1080/03057240120111427]
- Hong, S. H. (2009). Application to the dilemma discussion program: ethics and character education for medical students. Korean Medical Education Review, 11(2), 3-14. [https://doi.org/10.17496/KMER.2009.11.2.3]
- Kang, M. & Park, G. (2019). Contents for Integrity Education at the Middle School in South Korea Using Moral Dilemma. The Journal of Humanities and Social Science 21, 10(6), 1245-1258. [https://doi.org/10.22143/HSS21.10.6.92]
- Joo, H. & Seo, Y. (2015). Development of Teaching Guidelines for Science Research Ethics Education in Elementary School Science. Journal of Korean Elementary Science Education, 32(3), 298-314.
- Lee, E., Lee, E. & Chund. Y. (2016). Effects of Socioscientific issues (SSI) programs on Enhancing High School Students’ Moral Judgement and SSI reasoning skills. Journal of Learner-Centered Curriculum and Instruction, 16(8), 219-237.
- Moon, M., (2007). Effect of professional morality education program for preservice teachers on the development of four component of morality. The Journal of Learner-Centered Curriculum and Instruction, 7(1), 165-188.
- Hong, S. (2000). Effects of dilemma discussion on the Moral Development of Medical Students. The Journal of moral Education, 12(2), 227-253. [https://doi.org/10.17715/jme.2000.11.12.2.227]
- Lee, J., Moon, Y, Kim, J., Son, H., & Hong, K. (2006). A study of comparison between moral sensitivity and reasoning in medical students. Korean Journal of Medical Education, 18(1), 41-53. [https://doi.org/10.3946/kjme.2006.18.1.41]
- Kim, H. (2010). A Case Study of In-Service and Pre-service Elementary Teachers` Instruction for Moral Dilemma Discussion. Journal of Ethics, 76, 1-32. [https://doi.org/10.15801/je.1.76.201003.1]
- Lee, I., Choi, C., Ryue, S. & Yoon, Y. (2012). An Exploration of the Construct of Moral Character by the Four Components Model of Rest. Journal of Ethics, 84, 159-192. [https://doi.org/10.15801/je.1.84.201203.159]
- Kwon, H. (2013). The relationship between empathy, moral reasoning, and new environmental paradigm of elementary school students. Journal of Moral & Ethics Education, (39), 185-206.
- William M. K & Jacob L. G. (2004). Moral Development. (Moon, Y, Trans.). Hakjisa. (Original work published 1995)
- Kim, H. (2005). A Study on Development of the Information Ethics Judgement Test. Journal of Moral & Ethics Education, (21), 225-254.
- Kim, M., Kim, H. & Lee, W. (2012). The Development of Issue-Oriented Dilemmas for Measuring Information Ethical Judgments. The Journal of Korean Association of Computer Education, 15(4), 13-24.
- Park, G., Hong, S., Seo, K., Han, H. & Kim, Y. (2011). A Preliminary Study on making Tool for the Moral Sensitivity Test for Korean Youth. National Youth Policy Institute
- Lim, Y., Son, G., Seo, K., Shin, T. & Chung, K. (2012). A study on the development of the moral sensitivity test for adolescents II. National Youth Policy Institute.
- Schwartz, S. H. (1977). Normative influences on altruism. In Advances in experimental social psychology, 10, 221-279. [https://doi.org/10.1016/S0065-2601(08)60358-5]
- Bebeau, M. J., Rest, J. R., & Yamoor, C. M. (1985). Measuring dental students’ ethical sensitivity. Journal of Dental Education, 49(4), 225-235. [https://doi.org/10.1002/j.0022-0337.1985.49.4.tb01874.x]
- Akira, et. al(2004), The development of a brief and objective method for evaluating moral senitivity and reasoning in medical student, BMC Medical Ethics, 5(1). http://www.ethicsweb.ca/guide/moral-decision.html [https://doi.org/10.1186/1472-6939-5-1]
- Lee, J. (2005). Study of moral sensitivity scale development and the trait of moral sensitivity [Master’s thesis]. Seoul National University.
- Mohammadnazar, H., Ghanbari, H., & Siponen, M. (2019). Moral sensitivity in information security dilemmas. In European Conference on Information Systems. Association for Information Systems.
- Kim, H. (2004). A Study on Development of the Information Ethics Sensitivity. Journal of Moral & Ethics Education,(19), 1-24.
- Ministry of Education. (2022). 2022 Revised National Curriculum of Korea. https://ncic.re.kr, /
- Kim, H., (2017). Comparative Analysis of Moral Discussion Instruction Models. The Korean Society for Artificial Intelligence, 56, 1-19. [https://doi.org/10.17282/ethics.2017..56.1]
- Galbraith, R. E., & Jones, T. M. (1976). Moral Reasoning: A Teaching Handbook for Adapting Kohlberg to the Classroom.
- Volker, J. M. (1984). Counseling experience, moral judgment, awareness of consequences and moral sensitivity in counseling practice. University of Minnesota.
- Kim, E & LEE. Y. (2023). Development of AI Ethics Dilemma Questions for AI Ethics Education. The Journal of Korean Association of Computer Education, 26(5), 31-42. [https://doi.org/10.32431/kace.2023.26.5.003]
Appendix
· 2009년 청주교육대학교 초등교육 (교육학학사)
· 2022년 한국교원대학교 초등컴퓨터교육 (교육학석사)
· 2022년~현재 한국교원대학교 초등컴퓨터교육 박사과정
관심분야 : 인공지능교육, 인공지능 윤리교육
kektb86@gmail.com
· 1988년 고려대학교 전산과학과(이학사)
· 1994년 미국 미네소타대학교 전산학과 (Ph.D.)
· 2003년~현재 한국교원대학교 컴퓨터교육학과 교수
관심분야 : 지능형시스템, 학습과학, 정보교육, 인공지능교육
yjlee@knue.ac.kr