1 00:00:00,000 --> 00:00:07,820 인공지능과 AI, 로봇의 발달은 앞으로 인류의 노동을 대체하게 될 것이다. 2 00:00:08,220 --> 00:00:15,840 우리는 인공지능으로도 대체되지 않는 어떤 영역에서 진짜 우리 인간의 가치를 찾아야 될까요? 3 00:00:30,000 --> 00:00:59,980 인공지능과 AI, 로봇의 발달은 앞으로 인류의 노동을 대체하게 될 것이다. 4 00:01:00,000 --> 00:01:01,040 이런 얘기를 진행했습니다. 5 00:01:01,740 --> 00:01:10,260 제가 가르치는 과목에는 사회문화라는 과목이 있고, 그 과목이 사회탐구 교과목으로서 수능 과목 중에 하나인데요. 6 00:01:11,300 --> 00:01:15,500 15년 전쯤에 사회탐구 교과서에는 이런 말이 적혀있었습니다. 7 00:01:16,600 --> 00:01:24,140 인공지능과 AI, 로봇의 발달은 앞으로 인류의 노동을 대체하게 될 것이다. 8 00:01:24,140 --> 00:01:28,960 여러분들 많이 들어보셨던 제레미 리프킨의 노동의 종말이라는 책, 9 00:01:29,060 --> 00:01:29,980 한 번쯤은 들어보셨나요? 10 00:01:30,000 --> 00:01:31,260 한 번쯤은 들어보셨을 거라고 생각하는데요. 11 00:01:31,880 --> 00:01:35,000 인간 직업의 80% 정도가 대체될 수도 있으며, 12 00:01:36,000 --> 00:01:43,940 때로는 인간이 노동을 상실하고 기본소득으로 살아가야 될 수 있다는 경고가 철학책 속에 많이 나오면서, 13 00:01:44,480 --> 00:01:47,000 그때 미래에 대한 예상이 이런 것들이 나와있었죠. 14 00:01:48,500 --> 00:01:51,580 단순 노동은 기계로 대부분 대체될 것이며, 15 00:01:52,060 --> 00:01:58,520 고차원적인 지능을 다루는 영역에 대해서만 인간이 자기 역할을 할 수 있을 것이라는 예측. 16 00:01:58,520 --> 00:02:06,520 때로는 15년 전 교과서에 있는 예측이 철저히 틀린 것 같다라는 느낌을 받게 되는 순간도 있는 것 같습니다. 17 00:02:07,520 --> 00:02:14,520 얼마 전에 유튜브에서는 약 150만 뷰 정도 제 간단한 쇼츠 영상이 알고리즘에 떴는데요. 18 00:02:15,520 --> 00:02:23,520 제가 학생들에게 강의를 하면서 그것이 따로 쇼츠로 만들어질지 모르고 아마 팬페이지에서 만들어진 것 같아요. 19 00:02:24,520 --> 00:02:27,520 우리 수험생들 가르치다 보면 고3 학생들이 꿈이, 20 00:02:27,520 --> 00:02:28,480 꿈이, 21 00:02:28,480 --> 00:02:38,480 주로 의사가 되고 싶다거나 아니면 경영학과에 가서 CEO가 되고 싶다거나 아니면 로스쿨에 가서 변호사가 되고 싶다거나 꿈꾸는 학생들이 많다 보니 22 00:02:39,480 --> 00:02:44,480 그런 동기부여 강의를 좀 하려고 언급한 내용 중에 한 마디였습니다. 23 00:02:45,480 --> 00:02:56,480 제 후배 중에 변호사 시험을 붙고 그리고 김현장에 갔다가 거기서 대형 사건을 많이 하고 또 창업을 해서 로펌을 차린 후배 두 명이 저에게 찾아왔어요. 24 00:02:56,480 --> 00:03:00,480 편안한 대화 자리 속에서 다음과 같은 얘기를 하더라고요. 25 00:03:01,480 --> 00:03:25,480 중소형 로펌을 만들고 인턴을 6명 변호사를 신입 변호사를 채용했는데 그들에게 변론과 관련해서 서류를 준비하라고 했더니 일주일 걸려 가져온 결과물이 본인이 재미나이 또는 GPT 또는 변호사들이 사용하는 인공지능 어플을 이용해서 1시간 만든 것보다 성과가 높지 않아서 26 00:03:26,480 --> 00:03:50,480 앞으로 이 인턴을 추가적으로 정규직 채용하지 않을 것 같고 가면 갈수록 신입 변호사보다는 시니어급의 똑똑한 판단을 해서 AI가 지금 얘기하고 있는 게 거짓말인지 아니면 가짜 거짓 정보인지를 정말 선명히 가려낼 수 있는 소수의 변호사 이외에 변호사 직업이 사양세를 걷게 될 것 같다는 물론 개인적인 견해였습니다. 27 00:03:51,480 --> 00:03:54,480 인공지능이라는 내용을 가지고 강의를 하는 매에 있어서 28 00:03:54,480 --> 00:04:00,480 우리의 예측을 빗나갈 정도로 과학기술이 아주 빠른 속도로 발전해가고 있으며 29 00:04:00,480 --> 00:04:11,480 거기서 우리는 어떻게 예측을 하고 어떻게 대응하는 것이 가장 우리가 인공지능의 시대에 잘 판단을 내리고 미리 대비하는 것인지에 대한 고민에서부터 시작합니다. 30 00:04:11,480 --> 00:04:16,480 사실 저는 과학 전공자가 아니라 윤리학, 인문학 전공자입니다. 31 00:04:16,480 --> 00:04:23,480 평생을 철학 공부를 해왔고 평생을 어떻게 하면 학생들에게 쉽게 철학자들을 전달해야 할까요? 32 00:04:23,480 --> 00:04:27,480 어떤 철학자들을 전달해 줄 수 있을지를 고민해왔던 사람입니다. 33 00:04:27,480 --> 00:04:39,480 요즘은 저도 인공지능 챗봇들을 사용하면서 인간의 지식의 영역이 한 단계 변화를 겪는 변역점 앞에 놓여 있구나 라는 생각을 많이 합니다. 34 00:04:39,480 --> 00:04:51,480 평생을 공부해오고 책을 읽어오고 정리해왔던 것들이 너무나도 빠른 속도로 변해가는 기술력 속에서 어찌 보면 무의미해져 갈 수도 있다는 느낌과 함께 35 00:04:51,480 --> 00:04:56,480 요즘도 학부모님 대상 강연을 가면 학부모님들께서 많이 물어보세요. 36 00:04:56,480 --> 00:05:02,480 이렇게 인공지능이 빠르게 발달하는 시대에 우리 아이는 영어유치원을 보내야 할까요? 37 00:05:02,480 --> 00:05:06,480 대치동 강의가 의미가 있을까요? 라는 질문에서부터 시작을 하시니깐요. 38 00:05:06,480 --> 00:05:16,480 저는 인문학 전공자니 오늘 조심스럽게 간단히 이런 미래의 변화에 대한 인문학적 질문을 좀 드려보고자 합니다. 39 00:05:16,480 --> 00:05:19,480 잠시 저의 고등학교 시절 글짓기 대회에 참여하고 싶습니다. 40 00:05:21,480 --> 00:05:24,480 제 작품으로 좀 가보겠습니다. 41 00:05:24,480 --> 00:05:31,480 여러분들 혹시 마루인형 또는 마론인형이라고 부르는 인형 알고 계시나요? 42 00:05:31,480 --> 00:05:37,480 아이들이 옷을 갈아입히기도 하는 3차원 공간의 인형이요. 43 00:05:37,480 --> 00:05:41,480 저는 어릴 때 가난하게 자라났습니다. 44 00:05:41,480 --> 00:05:50,480 여러분들이 많이 보시던 기생충이라는 그 영화 속에 반지와 월세빵 같은 퀴퀴한 냄새가 나는 방 속에서 중학교 시절을 보냈고 45 00:05:50,480 --> 00:05:58,480 그 시절 제가 겪었던 가장 큰 일은 이렇게 폭우가 오는 날 집 앞에 야산이 산사태로 무너져 내리면서 46 00:05:58,480 --> 00:06:06,480 그 무너진 산사태에 집이 토사에 묻히면서 집을 잃게 됐던 경험이 아직도 기억에 남는데요. 47 00:06:06,480 --> 00:06:14,480 어릴 때 너무 가난하게 살았던 나머지 저는 그 마론인형 하나 그때 당시 가격도 만 원, 이만 원 정도밖에 안 했던 것 같은데 48 00:06:14,480 --> 00:06:18,480 그거 하나를 사지 못해서 천 원도 안 되는 쓰레기였어요. 49 00:06:18,480 --> 00:06:20,480 천 원도 안 되는 쓰레기였어요. 50 00:06:20,480 --> 00:06:23,480 스티커 인형이라고 해서 종이 인형, 2D 인형이죠. 51 00:06:23,480 --> 00:06:26,480 그 종이 인형을 가지고 놀았던 기억이 납니다. 52 00:06:26,480 --> 00:06:28,480 같이 상상해보세요. 53 00:06:28,480 --> 00:06:30,480 자, 여기 종이 인형이 있습니다. 54 00:06:30,480 --> 00:06:38,480 제가 종이 인형을 들어 올려서 그 옷을 갈아입히기 위해 스티커를 붙여주고 다시 종이 인형을 원래 자리에 내려놓으려고 합니다. 55 00:06:38,480 --> 00:06:46,480 2차원의 세계 속에 연애를 하는 철수와 영희가 있고 저는 영희를 들어 올려서 영희의 원피스를 갈아입혀줬습니다. 56 00:06:46,480 --> 00:06:48,480 그리고 영희를 내려놓았죠. 57 00:06:48,480 --> 00:06:50,480 고차원적 세계. 58 00:06:50,480 --> 00:07:04,480 3차원의 공간과 시공간에 살아가고 있는 저는 영희와 철수의 메커니즘을 전부 다 고차원 세계 속에서 이해하고 있지만 아마 2차원 세계를 살고 있는 철수 입장에서는 다르게 보였을 겁니다. 59 00:07:04,480 --> 00:07:11,480 자기가 이해하는 2차원의 세계 속에서 사랑하는 여자친구 영희가 어느 순간 사라집니다. 60 00:07:11,480 --> 00:07:15,480 그리고 다른 옷을 입고 뿅 하고 나타나죠. 61 00:07:15,480 --> 00:07:18,480 철수는 기적이라고 여기지 않을까요? 62 00:07:18,480 --> 00:07:20,480 자 우리 2차원의 세계로 와 볼게요. 63 00:07:20,480 --> 00:07:25,480 여기 평생 동안 제대로 없었던 제 남자친구가 하나 있다고 칩시다. 64 00:07:25,480 --> 00:07:27,480 연애는 왜 이렇게 어렵죠? 65 00:07:27,480 --> 00:07:33,480 저는 연애 고자이지만 일단 가상의 남자친구가 차은우를 닮았다고 제 멋대로 상상하겠습니다. 66 00:07:33,480 --> 00:07:43,480 3차원의 공간과 불완전한 4차원의 시간 속에서 제가 이렇게 걸어가고 있는데 제 남자친구가 갑자기 사라집니다. 67 00:07:43,480 --> 00:07:47,480 그리고 옷을 갈아입고 제 눈앞에 다시 나타난다면. 68 00:07:47,480 --> 00:07:50,480 저는 그때부터 아마 신앙심이 생길 것 같습니다. 69 00:07:50,480 --> 00:07:52,480 기적이라는 게 있구나. 70 00:07:52,480 --> 00:07:59,480 우리 차원의 세계에서 이해되지 않는 뭔가 고차원적인 영역의 절대자가 존재하나? 라는 생각도 할 거예요. 71 00:07:59,480 --> 00:08:04,480 제가 지금 말씀드린 건 제가 고3 때 썼던 글의 일부였는데요. 72 00:08:04,480 --> 00:08:07,480 인간의 신앙은 무엇으로부터 오는가? 73 00:08:07,480 --> 00:08:16,480 어찌 보면 고차원적 물리학 세계 속에서 우리가 이해되지 못하는 신비한 영역은 물리학적으로 풀리지 않습니다. 74 00:08:16,480 --> 00:08:23,480 물리학적으로 풀리는 것이 아닐까라는 그런 고민을 담은 글이었는데 그때 글짓기 대회에 상을 탔던 기억이 납니다. 75 00:08:23,480 --> 00:08:33,480 인간은 본인의 세상 속에서 알지 못하는 메커니즘에 의해서 일어나는 일에 대해서 두려움을 가지거나 신앙심을 가지거나 또는 낯설어해왔습니다. 76 00:08:33,480 --> 00:08:36,480 그것이 인간의 종교의 기원이기도 했고요. 77 00:08:36,480 --> 00:08:45,480 유발 하랄이라는 아주 유명한 철학자는 그의 책 에서 인공지능 시대의 도례를 다음과 같이 묘사합니다. 78 00:08:45,480 --> 00:09:01,480 인간이 이해하지 못하는 AI 알고리즘과 메커니즘 속에서 인공지능 시대의 도래가 강인공지능 또는 AGI 여러분들이 잘 알고 있으시다시피 스스로 작동 가능한 그 인공지능의 시대가 열리면 79 00:09:01,480 --> 00:09:08,480 그것이 인간에게 새로운 신앙의 출발일 수도 있겠다라고 얘기하는 분석이 나와요. 80 00:09:08,480 --> 00:09:13,480 여러분이 생각하시기에 신앙과 종교는 무엇으로 존재하게 되나요? 81 00:09:13,480 --> 00:09:14,480 우리는 때로는 인류 역사를 보면요. 82 00:09:14,480 --> 00:09:15,480 우리는 때로는 인류 역사를 보면요. 83 00:09:15,480 --> 00:09:35,480 내가 알지 못하는 미래에 대해서 물어볼 때 무슨 사람을 만나는 게 더 좋은지, 몇 살에 결혼하는 게 더 좋은지, 어떤 전공을 선택하고 어떤 직업을 선택하는 게 좋은지, 여기서 퇴사를 하고 이직을 하는 게 좋은지를 물어보는 곳에서 신앙의 영역에 의존해온 경우가 많았습니다. 84 00:09:35,480 --> 00:09:44,480 하지만 인공지능 챗봇의 발달로 이제 인간은 아주 빠른 속도로 인공지능 챗봇에게 오늘 저녁에 무엇을 먹을지, 85 00:09:44,480 --> 00:09:52,480 이번 주에 데이트를 가는 것이 좋을지, 어떤 영화를 볼지, 그리고 어떤 진로를 선택할지를 물어보는 시대를 맞이하고 있습니다. 86 00:09:52,480 --> 00:10:07,480 어찌 보면 인류에게 100% 이해 불가능한 새로운 AGI, 즉 인공지능 에이전트의 등장들이 인간에게 새롭고 낯선 시대를 열지도 모른다라는 생각이 들었습니다. 87 00:10:07,480 --> 00:10:11,480 저는 인문학을 공부하면서 재미있게 공부했던 이론이 하나 있었습니다. 88 00:10:11,480 --> 00:10:13,480 제이론이라는 이론이었는데요. 89 00:10:13,480 --> 00:10:14,480 제이론이라는 이론이었는데요. 90 00:10:14,480 --> 00:10:22,480 재난을 얘기할 때 제, 이, 낯설고 상서로운 일을 얘기할 때 이, 그리고 이론을 뜻하는 논인데요. 91 00:10:22,480 --> 00:10:24,480 제이론이라는 이론은요. 92 00:10:24,480 --> 00:10:41,480 천재지변이 날 때, 폭우와 뇌우와 쓰나미와 같은 큰 격변이 일어날 때마다 사람들이 조선시대에 도대체 이런 재난이 왜 나타나는지를 이해하지 못하여 그 재난의 원인을 왕의 부덕에서 찾던 이론이었습니다. 93 00:10:41,480 --> 00:10:43,480 조선시대 성리학 이론의 한 아류이론이었습니다. 94 00:10:43,480 --> 00:10:46,480 조선시대 성리학 이론의 한 아류이론이었습니다. 95 00:10:46,480 --> 00:10:56,480 그때만해도 과학기술이 발달하기 전이고 지금처럼 모든 것을 검증하고 모든 것을 과학적인 사고로 바라보기 전이라 그런지 조선시대의 그 이론을 보면서 저는 96 00:10:56,480 --> 00:11:02,480 Wow! 과학 무�ongo la ignorancia, a傳연문 curtain, maarten de lachant concentrada in nas theoretical technology. 97 00:11:02,480 --> 00:11:07,480 이제는 누가 여러분 친구 또는 직장 동료 중에 98 00:11:07,480 --> 00:11:12,480 엄청난 폭우와 엄청난 가뭄으로 누군가 천재지변으로 고생하는 장면을 보고 있는데, 99 00:11:12,480 --> 00:11:17,060 이런 장면을 보고 있는데 같이 TV 뉴스에서 그 끔찍한 기사를 접하면서 100 00:11:17,060 --> 00:11:21,200 이게 다 대통령을 잘못 뽑아서 그래 라고 얘기하는 사람이 있다면 101 00:11:21,200 --> 00:11:24,260 여러분들은 그 사람과 같이 가까이 하고 싶으신가요? 102 00:11:24,920 --> 00:11:26,740 아마 그러지 않을 거라고 생각합니다. 103 00:11:27,580 --> 00:11:33,320 인류의 문명은 이 제이론이 사그러들어 갔듯이 과학기술의 발달과 함께 104 00:11:33,320 --> 00:11:37,320 점점 탈신성화, 탈종교화 되어 갔습니다. 105 00:11:37,320 --> 00:11:43,380 그런데 인공지능의 등장 그리고 인공지능의 점점 강력한 기술의 발달은 106 00:11:43,380 --> 00:11:47,480 때로는 우리가 알지 못하는 메커니즘의 세계 속에서 107 00:11:47,480 --> 00:11:52,200 2차원 세계의 철수와 영의를 들어 올렸던 고차원의 저처럼 108 00:11:52,200 --> 00:11:56,620 저의 세계에서 무언가 이해하지 못하는 메커니즘으로 109 00:11:56,620 --> 00:11:59,940 인간을 이끌 수도 있겠다라는 생각을 해보게 되는 110 00:11:59,940 --> 00:12:03,960 그런 철학적 고민들이 지금 전 세계적으로 많이 논의가 되고 있습니다. 111 00:12:03,960 --> 00:12:06,420 조금 더 현실적인 이야기들로 112 00:12:06,420 --> 00:12:06,960 4가지 키워드가 있습니다. 113 00:12:07,320 --> 00:12:09,700 4가지 키워드로 인공지능 윤리를 정리해 보려고요. 114 00:12:12,780 --> 00:12:16,200 저는 보통 인공지능 관련 윤리 강의를 할 때 115 00:12:16,200 --> 00:12:18,420 4가지 키워드로 소개를 드리는데요. 116 00:12:18,800 --> 00:12:22,340 첫 번째는 선택의 문제, 두 번째는 불안의 문제, 117 00:12:22,940 --> 00:12:27,560 세 번째는 혐오의 문제, 네 번째는 시간의 문제로 접근해 봅니다. 118 00:12:28,120 --> 00:12:31,460 첫 번째는 인공지능과 관련해서 우리가 절대로 빠지지 않고 119 00:12:31,460 --> 00:12:33,620 논의해야 될 것은 선택의 문제입니다. 120 00:12:35,140 --> 00:12:36,620 하버드대학교 철학과에선 121 00:12:37,320 --> 00:12:42,220 정의를 강의하는 마이클 샌델 이라는 교수가 122 00:12:42,220 --> 00:12:45,280 그 정의론이라는 강의의 시작 도입 후에 123 00:12:45,280 --> 00:12:47,440 늘 묻는 질문이 있습니다. 124 00:12:47,440 --> 00:12:51,180 우리에게는 트롤리 딜레마로 알려져 있는 질문이에요. 125 00:12:51,180 --> 00:12:54,240 여러분들은 열차의 기관사입니다. 126 00:12:54,240 --> 00:12:57,000 열차의 브레이크가 고장났다는 걸 알게 됐고 127 00:12:57,000 --> 00:12:59,380 이대로 열차가 직진하게 되면 128 00:12:59,380 --> 00:13:03,200 열차가 정차역에 멈출 것이라고 믿는 열차 선로를 보수하고 있는 공무원 6명이 있는데, 129 00:13:03,200 --> 00:13:04,340 열차 선로를 보수하고 있는 공무원 6명의 영상이 이렇게 되어 있어요. 130 00:13:04,340 --> 00:13:05,240 열차 선로를 보수하고 있는 공무원 6명이 이렇게 되어 있고요. 131 00:13:05,240 --> 00:13:06,420 열차 선로를 보수하고 있는 공무원 6명이 이렇게 되어 있고요. 132 00:13:07,320 --> 00:13:08,320 사망하게 됩니다 133 00:13:08,320 --> 00:13:11,980 비상철로 하나가 있다는 걸 알게 되었고 134 00:13:11,980 --> 00:13:15,520 여러분들이 직진이 아니라 비상철로로 오해하면 135 00:13:15,520 --> 00:13:19,860 지난 20년간 그 비상철로에 사람들이 간 적이 없었지만 136 00:13:19,860 --> 00:13:24,760 그 비상철로에 갔을 때 6명은 살릴 수 있지만 137 00:13:24,760 --> 00:13:29,320 일반 시민 한 명이 열차가 안 올 것이라고 철저하게 믿고 138 00:13:29,320 --> 00:13:32,280 걷고 있었기 때문에 사망하게 됩니다 139 00:13:32,280 --> 00:13:35,320 제가 고등학교 윤리수업 시간에 140 00:13:35,320 --> 00:13:37,780 매주 첫 주에 묻는 질문과 같은 질문입니다 141 00:13:37,780 --> 00:13:40,080 여러분들도 한번 같이 대답해 주세요 142 00:13:40,080 --> 00:13:42,100 쉬운 질문이니까요 143 00:13:42,100 --> 00:13:44,020 이대로 직진하면 6명이 죽고 144 00:13:44,020 --> 00:13:46,320 비상철로로 오해하면 한 명이 죽습니다 145 00:13:46,320 --> 00:13:50,300 여러분들은 6명이 죽는 직진을 선택하시겠습니까? 146 00:13:50,420 --> 00:13:52,780 한 명만 죽는 오해를 선택하시겠습니까? 147 00:13:52,780 --> 00:13:54,740 맨 앞에 분께 제가 여쭤볼게요 148 00:13:54,740 --> 00:13:56,340 직진 오해 149 00:13:56,340 --> 00:14:00,800 직진이요 150 00:14:00,800 --> 00:14:03,000 6명을 죽이시는군요 151 00:14:03,000 --> 00:14:05,300 과감하시네요 152 00:14:05,300 --> 00:14:09,240 간단히 잠깐 거수로 여쭤볼까요? 153 00:14:09,900 --> 00:14:11,740 나는 비상철로로 오해하겠다 손 154 00:14:11,740 --> 00:14:14,140 감사합니다 내려주세요 155 00:14:14,140 --> 00:14:15,860 나는 직진하겠다 손 156 00:14:15,860 --> 00:14:18,680 딱 5분이 손 드셨습니다 157 00:14:18,680 --> 00:14:19,440 감사합니다 158 00:14:19,440 --> 00:14:25,080 여러분 저는 윤리를 가르치는 강사다 보니 159 00:14:25,080 --> 00:14:29,520 여기서 직진과 오해할 때 각각 철학자들을 언급을 합니다 160 00:14:29,520 --> 00:14:33,760 최대다수의 최대 행복을 얘기한 영국의 제레미 벤담이라는 철학자가 161 00:14:33,760 --> 00:14:35,280 수수의 희생으로 오해하겠다 손을 들여줬습니다 162 00:14:35,300 --> 00:14:36,820 수수의 희생으로 다수를 살릴 수 있다면 163 00:14:36,820 --> 00:14:40,400 결과적으로 옳다고 얘기한 공리주의 농거를 들어서 164 00:14:40,400 --> 00:14:43,080 수수의 희생으로 멈출 수 있다면 165 00:14:43,080 --> 00:14:47,040 비상철로로 오해해야 된다는 결론을 얘기하거나 166 00:14:47,040 --> 00:14:48,940 또는 다른 선택지로 167 00:14:48,940 --> 00:14:52,040 항상 인간을 존엄하게 대하고 168 00:14:52,040 --> 00:14:56,800 언제 어디서나 내 자신에게 있어서나 타인에게 있어서나 169 00:14:56,800 --> 00:15:01,540 인격을 절대로 수단화하지 말라는 칸트의 철학을 들어서 170 00:15:01,540 --> 00:15:04,440 임마누엘 칸트라는 독일 철학자의 철학을 들어서 171 00:15:04,440 --> 00:15:05,280 인격을 절대로 수단화하지 말라는 칸트의 철학을 들어서 172 00:15:05,300 --> 00:15:11,480 이 여섯 명을 살리기 위해 한 명을 수단이나 도구로 전락시켜서는 안 된다라고 얘기하면서 173 00:15:11,480 --> 00:15:16,060 상황 속에 이미 놓여있던 여섯 명은 어쩔 수 없었다 할지라도 174 00:15:16,060 --> 00:15:21,640 이 한 명을 희생량 삼는 것은 도덕적으로 옳지 않다라는 얘기를 전달하기도 합니다 175 00:15:21,640 --> 00:15:26,800 아까 비상철로로 오해하시겠다고 여기 계신 분의 90%가 손을 들어주셨어요 176 00:15:26,800 --> 00:15:31,000 그럼 비상철로로 오해하시려던 여러분이 핸들을 꺾으려고 보니 177 00:15:31,000 --> 00:15:35,100 비상철로에 여러분의 퇴근을 기다리는 178 00:15:35,100 --> 00:15:35,280 여러분의 퇴근을 기다리는 여러분의 퇴근을 기다리는 179 00:15:35,280 --> 00:15:41,140 아버지께서 치킨을 들고 여러분들을 기다리러 걸어오시는 걸 보게 됐습니다 180 00:15:41,140 --> 00:15:47,240 여러분들의 선택은 다시 비상철로로 오해를 고수하실 겁니까? 181 00:15:47,900 --> 00:15:49,280 치킨 참을 수 있습니까? 182 00:15:50,600 --> 00:15:55,440 아버지인데 제3자의 시민을 판단할 때와 같습니까? 183 00:15:57,220 --> 00:16:01,960 또는 비상철로로 오해해서 죽어야 되는 사람은 나와 알지 못하는 사람인데 184 00:16:01,960 --> 00:16:05,080 직진하면 여섯 명의 내 친한 동료들이 죽겠습니까? 185 00:16:05,080 --> 00:16:05,660 직진하면 여섯 명의 내 친한 동료들이 죽게 됩니다 186 00:16:05,660 --> 00:16:09,360 그것은 여러분의 선택을 바꾸는 기회가 되기도 합니까? 187 00:16:09,860 --> 00:16:11,740 제가 이 질문을 드리는 이유가 있습니다 188 00:16:11,740 --> 00:16:16,060 우리 인간조차 무엇이 옳고 무엇이 그른 것인지 189 00:16:16,060 --> 00:16:18,920 윤리적으로 합의를 보기가 결코 쉽지가 않습니다 190 00:16:18,920 --> 00:16:21,860 우리에게 철저한 윤리 원칙이라고 하는 것은 191 00:16:21,860 --> 00:16:24,080 여전히 논쟁의 영역에 있을 뿐 192 00:16:24,080 --> 00:16:27,060 정확히 하나의 답을 인간이 가지고 있지 않습니다 193 00:16:27,060 --> 00:16:31,020 하물며 이런 인간이 현재 준비하고 있는 194 00:16:31,020 --> 00:16:33,980 자율주행 시스템 자동차 역시 마찬가지입니다 195 00:16:33,980 --> 00:16:34,880 자 여러분은 지금 이 질문을 듣고 계신 분이 계신가요? 196 00:16:34,880 --> 00:16:38,260 자 여러분들은 일반인들의 입장에서 한번 생각해 보십시오 197 00:16:38,260 --> 00:16:43,780 자율주행 자동차의 윤리 문제에 대해서 논의하는 대학생이 되셨다고 생각해 보시고요 198 00:16:43,780 --> 00:16:48,260 이 자율주행 자동차의 시스템에서 초기 개발 단계에서 199 00:16:48,260 --> 00:16:50,920 무언가 세팅값을 설정해야 됩니다 200 00:16:50,920 --> 00:16:53,500 자율주행 자동차가 직진하고 있을 때 201 00:16:53,500 --> 00:16:57,740 차체 제어가 불가능한 변수로써 다른 자동차가 끼어들고 있습니다 202 00:16:57,740 --> 00:17:02,740 이대로 인공지능 자동차가 그대로 멈춰버리면 운전자는 사망하지만 203 00:17:02,740 --> 00:17:03,880 인공지능 자동차가 그대로 멈추면 운전자는 사망하지만 204 00:17:03,880 --> 00:17:04,860 인공지능 자동차가 그대로 멈추면 운전자는 사망하지만 205 00:17:04,880 --> 00:17:10,220 자율주행 자동차가 턴해서 운전을 멈추지 않을 때 206 00:17:10,220 --> 00:17:12,860 여섯 명을 사상시킬 수 있습니다 207 00:17:12,860 --> 00:17:18,180 여러분들이 볼 때는 여섯 명을 사상하게 프로그래밍 되는 것과 208 00:17:18,180 --> 00:17:22,900 운전자 한 명을 죽이는 것 중에 무엇이 더 도덕적으로 옳은 것처럼 보이시나요? 209 00:17:23,500 --> 00:17:25,980 아까 비상철로로 우회하기를 선택하셨던 분들 210 00:17:25,980 --> 00:17:29,580 소수의 희생으로 다수를 살리려고 하셨던 여러분들의 입장에서는 211 00:17:29,580 --> 00:17:31,740 운전자 한 명이 죽는 것이 212 00:17:31,740 --> 00:17:34,740 여섯 명을 죽이는 것보다 훨씬 더 도덕적인 선택이었습니다 213 00:17:34,880 --> 00:17:40,420 이런 선택이라는 생각으로 여러분들이 윤리토론 수업에 참여하실 수도 있겠다는 생각이 들었습니다 214 00:17:40,420 --> 00:17:45,220 정치적으로 공론화되거나 공개토론회장이 열려도 아마 결론은 비슷할 겁니다 215 00:17:45,220 --> 00:17:47,740 자 이제 질문은 이것입니다 216 00:17:47,740 --> 00:17:53,400 사회적인 공감대가 형성돼서 소수의 희생으로 여러 명을 살릴 수 있는 217 00:17:53,400 --> 00:17:56,680 자율주행 시스템을 윤리학 원칙으로 만들었다고 칩시다 218 00:17:56,680 --> 00:18:00,680 여러분들 그런 자율주행 자동차 사시겠습니까? 219 00:18:01,540 --> 00:18:04,040 비상상황에서 무조건 운전자가 죽는데요 220 00:18:04,880 --> 00:18:08,820 나를 죽일 수도 있는 자동차를 1억을 주고 살 수 있을까요? 221 00:18:08,820 --> 00:18:12,120 여러분들이 테슬라의 CEO라고 칩시다 222 00:18:12,120 --> 00:18:17,260 무언가 외부에 공개하지 않은 내부 자율주행 원칙이 있다고 칩시다 223 00:18:17,260 --> 00:18:21,380 그리고 그 원칙은 정부의 규제에 따라서 224 00:18:21,380 --> 00:18:25,120 소수의 희생을 선택하도록 만들어진 원칙이라고 칩시다 225 00:18:25,120 --> 00:18:32,260 그럼 여러분들은 테슬라라는 자동차를 팔기 위한 광고 카피 문구를 만들 때 226 00:18:32,260 --> 00:18:36,160 자율주행의 윤리적 문제를 완벽히 해결한 도덕적인 자동차 227 00:18:36,160 --> 00:18:40,620 하지만 운전장은 죽을 위험이 높음이라고 카피를 만드실 건가요? 228 00:18:41,280 --> 00:18:43,200 그 사업 실패할 것 같은데요 229 00:18:43,200 --> 00:18:49,200 자율주행 자동차 사업이 성공하려면 자본주의 논리가 들어가면요 230 00:18:49,200 --> 00:18:54,540 어떤 경우에도 운전자는 죽지 않는다는 확신을 줘야 판매가 될 것 같은데요 231 00:18:54,540 --> 00:18:57,740 그것이 우리가 알고 있는 윤리 감정에 어긋나진 않을까요? 232 00:18:58,420 --> 00:19:02,140 생각보다 우리 인간은 윤리적인 선택을 해야 되는 경우가 많습니다 233 00:19:02,260 --> 00:19:06,800 하나의 도덕적 선택을 하는 만큼 나머지의 도덕성은 포기해야 되는 경우가 많죠 234 00:19:06,800 --> 00:19:11,160 선택받지 못한 옵션도 완전히 부도덕한 것은 절대로 아닙니다 235 00:19:11,160 --> 00:19:17,400 마치 직진을 선택하셨어도 그것이 윤리적 원칙만 있다면 설득이 가능한 것처럼요 236 00:19:17,400 --> 00:19:21,380 인간조차 윤리적으로 완벽한 정답을 찾지 못한 상황에서 237 00:19:21,380 --> 00:19:29,700 우리는 인공지능에게 과연 어떤 것을 주입하고 가르치고 초기 성장 모델을 세팅해야 될까요? 238 00:19:30,480 --> 00:19:32,160 인공지능은 세팅이 불가능한 거 아니에요 239 00:19:32,260 --> 00:19:39,200 하지만 미국에서 자율주행 시범 단계에서 이미 몇 가지 윤리 원칙이 자율주행 가이드로 주어지고 있는 것들을 240 00:19:39,200 --> 00:19:41,000 우리는 기사로도 많이 보고 있거든요 241 00:19:41,000 --> 00:19:47,180 첫 번째 고민, 정답은 아니더라도 첫 번째 고민이 선택의 문제라는 걸 알았습니다 242 00:19:47,180 --> 00:19:52,520 즉, 자율주행이라는 선택지를 주기는 했지만 243 00:19:52,520 --> 00:19:56,440 앞으로 점점 휴머노이드 로봇이 많이 생기면서 244 00:19:56,440 --> 00:20:02,240 이 로봇의 행동에 대해서도 자신의 고용주인, 주인을 위해 활용하는 것입니다 245 00:20:02,260 --> 00:20:08,160 자율주행을 위해 행동할 것인지, 인류 보편의 윤리를 위해 행동할 것인지의 로봇 윤리 원칙을 세팅할 때도 246 00:20:08,160 --> 00:20:10,880 아마 똑같은 상황이 놓일 것입니다 247 00:20:10,880 --> 00:20:13,720 윤리적인 선택의 문제는 상당히 어렵습니다 248 00:20:13,720 --> 00:20:16,600 이것이 공론화되기 전에 기술에 적용될 때는 249 00:20:16,600 --> 00:20:21,640 더더욱이나 소수의 자본주의적으로 탐닉하는 자본가에 의해서 250 00:20:21,640 --> 00:20:27,080 그 원칙이 매출 극대화에 영향을 받아 결정될 가능성이 매우 큽니다 251 00:20:27,080 --> 00:20:32,240 그것이 가장 옳은지에 대한 고민은 절대로 우리가 유명, 특정, 252 00:20:32,260 --> 00:20:38,220 CEO의 인성에만 기댈 수는 없는 문제라는 건 모두 다 공감하실 거라고 생각합니다 253 00:20:38,220 --> 00:20:41,180 두 번째는 혐오의 문제입니다 254 00:20:41,180 --> 00:20:46,020 여러분 플라톤이라는 고대 그리스 철학자가 있었습니다 255 00:20:46,020 --> 00:20:51,220 플라톤은 자기 책에서 기게스의 반지라고 하는 개념을 설명합니다 256 00:20:51,220 --> 00:20:54,760 기게스의 반지라고 할 때 기게스는 양치기였는데요 257 00:20:54,760 --> 00:20:58,660 그가 어느 날 길을 가다가 반지를 얻게 됩니다 258 00:20:58,660 --> 00:21:01,940 그 반지는 인간을 투명인간 능력을 만들어주는 259 00:21:01,940 --> 00:21:03,720 그 투명인간 반지였고요 260 00:21:03,720 --> 00:21:08,780 그 투명인간 반지를 가지게 된 기게스가 과연 어떤 선택을 했을 지로 261 00:21:08,780 --> 00:21:13,260 당시 고대 그리스 철학자들의 논의가 소개된 파트가 262 00:21:13,260 --> 00:21:15,700 플라톤의 책 대화편에 나옵니다 263 00:21:15,700 --> 00:21:18,480 여러분은 투명인간 반지를 얻게 되었을 때 264 00:21:18,480 --> 00:21:22,000 물론 우리의 철학적 상상력에서만 가능하겠지만 265 00:21:22,000 --> 00:21:24,540 무엇을 제일 먼저 하시겠습니까 266 00:21:24,540 --> 00:21:27,620 여기 맨 앞에 하얀 후드티를 입으신 남자분 267 00:21:27,620 --> 00:21:29,260 투명인간 반지로 뭐 하실 거예요 268 00:21:31,940 --> 00:21:37,140 좀 놀다 올 건가요 269 00:21:37,140 --> 00:21:39,780 어디로 놀러가는지는 자세히 묻지 않겠습니다 270 00:21:39,780 --> 00:21:42,520 윤리적으로 좀 문제가 있을 수 있으니까요 271 00:21:42,520 --> 00:21:48,860 제가 처음 강사로 데뷔해서 처음부터 고3 수능을 가르쳤던 건 아닙니다 272 00:21:48,860 --> 00:21:52,400 저는 3명짜리 초등학교 논술반으로 데뷔를 했고 273 00:21:52,400 --> 00:21:55,800 3명짜리 초등학생들한테 뭘 가르쳐야 될지 몰라서 274 00:21:55,800 --> 00:21:57,500 플라톤 책을 가르친다면서 275 00:21:57,500 --> 00:22:01,780 기게스의 반지가 생기면 무얼 할지를 논술 답안으로 적어내게 했습니다 276 00:22:01,940 --> 00:22:05,980 우리 초등학생 남학생은 참 귀엽더라고요 277 00:22:05,980 --> 00:22:07,560 여탕에 가겠다고 했습니다 278 00:22:07,560 --> 00:22:12,560 중학생부터는 답이 좀 달라지더라고요 279 00:22:12,560 --> 00:22:16,100 한국은행에 가서 신권을 가지러 가겠다고 했습니다 280 00:22:16,100 --> 00:22:19,540 우리 고3들의 답은 어느 정도 예측 가능하시죠 281 00:22:19,540 --> 00:22:24,620 한국교육과정평가원에 가서 출제 원안을 가지고 오겠다고 얘기를 하더라고요 282 00:22:24,620 --> 00:22:30,880 이 기게스의 반지는 철학 수업 속에서 다음과 같이 언급이 됩니다 283 00:22:30,880 --> 00:22:31,780 인간은 익명입니다 284 00:22:31,940 --> 00:22:37,780 익명성의 탈을 쓴 상태에서 가장 도덕적이고 숭고한 선택을 하는 것이 아니라 285 00:22:37,780 --> 00:22:43,320 가장 폭력적이고 가장 선정적인 선택을 한다는 것입니다 286 00:22:43,320 --> 00:22:45,760 왜냐하면 플라톤의 철학 책 속에 287 00:22:45,760 --> 00:22:48,460 지금부터 2500년 전의 철학 책 속에 288 00:22:48,460 --> 00:22:53,200 플라톤의 기게스의 반지를 가지게 된 그 양치기 기게스는 289 00:22:53,200 --> 00:22:57,600 그 자리에서 왕에게 달려가 왕을 죽이고 290 00:22:57,600 --> 00:23:01,920 왕비를 범하고 나라를 차지하는 것으로 결론이 나거든요 291 00:23:01,940 --> 00:23:10,180 익명성이 우리에게 주어진 공간 속에서 우리는 도덕적인가요 292 00:23:10,180 --> 00:23:18,180 지금도 수억 명의 사람들이 수십억도 넘는 셀 수 없는 텍스트로 293 00:23:18,180 --> 00:23:22,100 인공지능 챗봇에게 대화를 은밀한 공간에서 294 00:23:22,100 --> 00:23:25,240 둘이만 알고 있는 대화로 나누고 있는 경우가 많습니다 295 00:23:25,240 --> 00:23:31,440 우리가 최체 PT 재미나이 같은 유명한 인공지능 챗봇에게 입력하는 296 00:23:31,440 --> 00:23:31,920 메시지로 인공지능 챗봇에게 입력하는 메시지로 297 00:23:31,940 --> 00:23:38,300 메시지들 물어보는 것들 그리고 추천받는 영상과 추천받는 만화 298 00:23:38,300 --> 00:23:42,380 또는 추천받는 여러 행동들은 가장 도덕적인가요 299 00:23:42,380 --> 00:23:45,960 저는 그러지 않을 거라고 생각합니다 300 00:23:45,960 --> 00:23:52,660 우리는 알게 모르게 인공지능 챗봇에게 혐오를 주입하고 있는 세상 속을 살아가고 있습니다 301 00:23:52,660 --> 00:23:57,000 여러분들은 이미 조그만 화면 속에서 302 00:23:57,000 --> 00:24:01,440 유튜브 쇼츠 인스타 리얼스 쇼트폰 플랫폼의 틱톡 같은 303 00:24:01,440 --> 00:24:08,320 채널을 보면서 스크롤을 통해서 내 도파민을 10초 안에 자극하는 영상들 안에 304 00:24:08,320 --> 00:24:12,340 2시간 3시간 감금되어 계시는 경우가 많죠 305 00:24:12,340 --> 00:24:15,720 시간을 루팡 당하고 계실지도 모르겠습니다 306 00:24:15,720 --> 00:24:20,200 우리 쇼트폰 플랫폼의 알고리즘은 어떻게 작동합니까 307 00:24:20,200 --> 00:24:26,120 우리가 더 많이 머물렀던 영상 더 좋아요를 누르고 댓글에 참여했던 영상들을 308 00:24:26,120 --> 00:24:28,220 우리에게 더 많은 알고리즘으로 보여줍니다 309 00:24:28,220 --> 00:24:31,420 그런데 인간의 알고리즘은 어떻게 작동합니까 310 00:24:31,440 --> 00:24:36,180 조그만 화면 속에서 자신과 마주칠 때 머무는 영상 중에 311 00:24:36,180 --> 00:24:38,380 정말 많은 부분이 선정적이고 312 00:24:38,380 --> 00:24:43,180 정말 많은 부분이 폭력적인 영상들에 머물러 있는 경우가 되게 많다는 거 313 00:24:43,180 --> 00:24:44,060 여러분들 느끼시죠 314 00:24:44,060 --> 00:24:47,280 알다시피 이제 현대의 전쟁에는요 315 00:24:47,280 --> 00:24:50,940 드론 공격과 타겟을 설정하는 과정에서 316 00:24:50,940 --> 00:24:56,280 AI가 직접 전쟁에 개입해서 어디에 드론 폭탄을 보낼지를 결정하고 있는 317 00:24:56,280 --> 00:24:58,160 현대전의 양상이 보여지고 있습니다 318 00:24:58,660 --> 00:25:01,160 인간의 혐오를 학습한 AI가 319 00:25:01,440 --> 00:25:05,780 인간을 닮아 인공지능 자체는 감정도 없고 320 00:25:05,780 --> 00:25:11,080 인공지능 자체는 아무런 인간의 정서를 닮아있지 않지만 321 00:25:11,080 --> 00:25:15,520 인간을 더 흉내내고 더 인간답게 보이려는 이 알고리즘에 따라 322 00:25:15,520 --> 00:25:19,660 인간의 혐오와 선정성과 폭력성을 닮아가고 있는 건 아닐까요 323 00:25:19,660 --> 00:25:24,280 AI 채용 방식을 사용하는 유명 대기업에서 324 00:25:24,280 --> 00:25:30,500 지금까지 이력서 채용 결과물 같은 것들을 전부 다 전산에 입력하고 325 00:25:31,440 --> 00:25:37,080 현장의 이력서 중에서 채용할 사람을 AI로 선정하게 했더니 326 00:25:37,080 --> 00:25:39,680 지금까지 채용 과정에서 327 00:25:39,680 --> 00:25:44,540 남녀 차별의 존재에서 여성 채용자가 더 적었던 현실을 그대로 반영하여 328 00:25:44,540 --> 00:25:47,080 AI도 성 Это 男性存在性別的結果 329 00:25:47,080 --> 00:25:50,460 차별적 결과를 내놓는 결과가 있었습니다 330 00:25:50,460 --> 00:25:53,680 여러분 우리가 인공지능의 331 00:25:53,680 --> 00:25:59,280 지금도 인간을 학습하기 위해 수많은 데이터를 수용하고 있는 이 초창기 인공지능이 있는 senza irgendw rattling data 332 00:25:59,280 --> 00:26:09,900 초창기 인공지능 사용자로서 우리는 과연 AI, 인공지능이 닮을 만한 수준 높은 인간성과 도덕성을 보여주고 있을지 333 00:26:09,900 --> 00:26:22,700 우리가 과연 익명의 틀 안에서 우리 인간성이 가장 심각하게 윤리적 문제를 드러내고 있는 건 아닌지에 대해서 고민해 볼 때가 되었습니다. 334 00:26:23,620 --> 00:26:25,340 세 번째 키워드는 불안입니다. 335 00:26:25,340 --> 00:26:31,340 여러분들 교과서에서 19세기 러다이트 운동이라는 운동이 있었던 거 기억하시나요? 336 00:26:32,080 --> 00:26:35,040 고등학교 1학년 사회교과서쯤부터 등장을 하는데요. 337 00:26:36,640 --> 00:26:46,480 산업혁명 이후에 기계가 인간의 일자리를 많이 뺏어가자 인간이 조직적인 기계 파괴 운동을 벌이던 운동을 러다이트 운동이라고 부릅니다. 338 00:26:46,480 --> 00:26:55,320 기계의 일자리를 뺏긴 인간이 기계를 파괴해서 나의 일자리가 없어진 것에 대한 분노를 표출합니다. 339 00:26:55,340 --> 00:27:03,100 기계를 표출하던 운동으로 교과서에 많이 소개되어 있고 현대판 신러다이트 운동에 대한 논의도 많이 진행되고 있습니다. 340 00:27:05,220 --> 00:27:19,240 러다이트 운동이라고 하는 운동은 사회학적으로 또는 철학적으로는 기계에 대한 분노가 아니라 기계로 인해 소외된 인간 소외에 대한 공포의 발현이었다고 저는 생각합니다. 341 00:27:19,240 --> 00:27:24,260 기계가 우리의 일자리를 뺏어가고 인간을 대체할지도 모른다는 불안감. 342 00:27:24,720 --> 00:27:25,240 이 그 시대의 일자리입니다. 343 00:27:25,340 --> 00:27:26,080 기계가 우리의 일자리를 뺏어가는 것과는 다른 의미가 있었던 것이죠. 344 00:27:26,960 --> 00:27:40,560 앞에 시작할 때 15년 전 사회문화 교과서에 단순 노동이 대체되고 화이트 칼라 노동자만 소수의 브레인으로서 인공지능 시대에 살아남을 것이다 라는 예측이 무참히 틀리고 345 00:27:40,560 --> 00:27:49,920 오히려 화이트 칼라 계층에서 더 빠른 노동의 소멸이 일어나고 있는 상황 속에서 우리는 받아들여야 할 것 같습니다. 346 00:27:51,540 --> 00:27:55,220 인공지능과 기계와 로봇에 의해 대체되지 않는 직업이 무엇일까요? 347 00:27:55,340 --> 00:28:03,160 무엇인지를 찾는 것보다 대체되는 직업이 더 빠를 것이라는 것은 이제 우리가 거부할 수 없는 흐름이 되어버릴지도 모르겠습니다. 348 00:28:04,480 --> 00:28:21,580 그러면 인공지능이 인간의 노동을 대체하고 인간이 대부분 소수의 인공지능으로 대체되지 않는 영역에서 남아있는 것을 제외하고 기본 일자리를 잃어버리게 됐을 때 우리는 어떻게 살아가야 될까요? 349 00:28:22,140 --> 00:28:23,900 저는 때론 350 00:28:25,340 --> 00:28:29,500 페이팔 창업자가 했던 얘기를 강의 중에 언급을 합니다. 351 00:28:31,100 --> 00:28:38,060 일론 머스크가 포함되어 있던 팀이었고 미국의 아주 유명한 결제 시스템인 페이팔 창업자는 다음과 같이 얘기합니다. 352 00:28:41,600 --> 00:28:55,320 변화하는 시대에 우리가 어떻게 적응할 것인가 어떻게 살아남을 것인가 보다 더 중요한 것은 우리가 얼마나 큰 생각을 하느냐가 인류의 미래에 영향을 미칠 것이라는 믿음이다 라고 얘기하는 장면인데요. 353 00:28:55,340 --> 00:28:57,740 제가 학생들에게 많이 얘기하는 말이기도 합니다. 354 00:28:58,520 --> 00:29:20,880 우리는 이제 인공지능과 로봇이 우리의 노동을 대체할지 모르는 시대 속에서 아니요 대체하는 것이 거의 확실한 시대 속에서 어떻게 하면 기계로 대체되지 않고 인간이 고유한 영역의 인간이며 더 숭고해질 수 있는지 어떻게 하면 대체되지 않는 그 영역을 우리가 키워나갈 수 있는지에 대한 고민을 해야 되는 시점이 되었습니다. 355 00:29:20,880 --> 00:29:24,880 단순히 인공지능이 발달해갑니다. 356 00:29:25,340 --> 00:29:42,040 우리의 삶을 바꿔놓을 것에 대한 불안으로 두려움만을 논의하기보다는 변화하는 세상 속에서 우리는 어떻게 더 인간다워질 수 있는지 어떻게 하면 인간성을 잃지 않고 기계로 대체되지 않는 영역에서 빛날 수 있는지에 대한 논의를 시작해야 되는 시점이 되었죠. 357 00:29:42,040 --> 00:29:55,040 우리는 노동하지 않고 직업이 없고 자기의 소득이 없는 상황 속에서 정부의 기본 소득만을 가지고 살아가야 되는 시대를 맞이하게 됐을 때 무엇으로써 인간의 가치관을 지키는가. 358 00:29:55,340 --> 00:29:58,640 가치를 지켜낼 수 있을까요? 359 00:29:58,640 --> 00:30:03,440 네 번째 키워드는 시간입니다. 360 00:30:03,440 --> 00:30:05,340 저 연애고자거든요. 361 00:30:05,340 --> 00:30:09,340 근데 대학교 1학년 때 남자친구가 있었어요. 362 00:30:09,340 --> 00:30:10,800 대학교 1학년 때 남자친구가 363 00:30:10,800 --> 00:30:13,580 리니지라는 게임의 중독자였습니다. 364 00:30:13,580 --> 00:30:17,100 하루에 24시간 게임을 했습니다. 365 00:30:17,100 --> 00:30:18,480 잠은 언제 자냐고요? 366 00:30:18,480 --> 00:30:21,980 네, 잠을 3, 4시간 잤던 것 같은데 367 00:30:21,980 --> 00:30:26,180 그 3, 4시간 동안 PC방 문화가 있던 시대에 368 00:30:26,180 --> 00:30:28,940 PC방에 초등학생 아르바이트를 369 00:30:28,940 --> 00:30:31,140 PC방비와 라면 값을 주고 370 00:30:31,140 --> 00:30:33,140 자기 캐릭터를 로그인해서 371 00:30:33,140 --> 00:30:35,720 던전에 가서 보스몹을 잡도록 한 다음 372 00:30:35,720 --> 00:30:38,780 일어나면 다시 아이디를 양도받는 형태로 373 00:30:38,780 --> 00:30:43,080 그렇게 24시간 캐릭터를 돌린 거였어요. 374 00:30:43,080 --> 00:30:45,340 제가 남자 보는 눈이 없었는데 375 00:30:45,340 --> 00:30:47,340 하필 게임 중독자를 만나서 376 00:30:47,340 --> 00:30:49,680 그 게임도 같이 배워보기도 하고 377 00:30:49,680 --> 00:30:50,880 좀 친해져보려고 378 00:30:50,880 --> 00:30:51,940 보스몹도 같이 잡으려고 379 00:30:51,940 --> 00:30:54,000 잡으러 가보고 했지만 380 00:30:54,000 --> 00:30:56,340 잘 되지 않았습니다. 381 00:30:56,340 --> 00:30:58,340 왜냐하면 편의점에서 382 00:30:58,340 --> 00:31:00,240 그냥 우유 하나 살 때도 383 00:31:00,240 --> 00:31:02,800 리니지의 화폐 단위인 아덴? 384 00:31:02,800 --> 00:31:04,340 아데나를 쓰면서 385 00:31:04,340 --> 00:31:05,440 이건 몇 아덴이에요? 386 00:31:05,440 --> 00:31:10,980 이렇게 물어보는 악성 중독자였거든요. 387 00:31:10,980 --> 00:31:13,640 진짜 하등 쓸모없는 남친을 좋아하게 됐다고 388 00:31:13,640 --> 00:31:15,400 나는 왜 이렇게 이상한 사람을 좋아하지? 389 00:31:15,400 --> 00:31:16,280 라고 생각했는데 390 00:31:16,280 --> 00:31:18,640 어느 순간 생각이 조금 바뀌었어요. 391 00:31:18,640 --> 00:31:20,200 그때 그 리니지에서 392 00:31:20,200 --> 00:31:21,900 그 남자친구의 캐릭터는 393 00:31:21,940 --> 00:31:24,340 서번에 서열 2위 정도 됐고 394 00:31:24,340 --> 00:31:27,240 그것을 캐릭터를 판매할 수 있는 395 00:31:27,240 --> 00:31:29,280 아이템 베이라는 사이트가 있더라고요. 396 00:31:29,280 --> 00:31:31,340 거기서 그 캐릭터 판매 시 397 00:31:31,340 --> 00:31:35,380 2천만 원이라는 거예요. 398 00:31:35,380 --> 00:31:40,600 제가 왜 그때를 지금 언급하는지 아세요? 399 00:31:40,600 --> 00:31:42,900 아르바이트 초등학생까지 써가면서 400 00:31:42,900 --> 00:31:46,200 24시간 돌리던 그 캐릭터는 401 00:31:46,200 --> 00:31:50,940 경제적으로도 가치가 있는 캐릭터였습니다. 402 00:31:50,940 --> 00:31:51,940 기계는 좀 이상해요. 403 00:31:51,940 --> 00:31:53,840 인간은 휴식이 필요 없습니다. 404 00:31:53,840 --> 00:31:56,340 AI도 휴식이 필요 없죠. 405 00:31:56,340 --> 00:31:58,740 인간은 휴식을 해야 되지만 하고 406 00:31:58,740 --> 00:32:00,640 힐링을 해야 되기만 하고 407 00:32:00,640 --> 00:32:02,340 쉼이 필요합니다. 408 00:32:02,340 --> 00:32:03,940 어찌 보면 휴식도 필요 없고 409 00:32:03,940 --> 00:32:06,340 영양 보충도 필요 없는 기계와 410 00:32:06,340 --> 00:32:08,840 우리가 같은 시간을 경쟁한다는 거 411 00:32:08,840 --> 00:32:10,940 불가능한 일일 겁니다. 412 00:32:10,940 --> 00:32:13,840 시간이 권력이고 돈이던 시대 속에서 413 00:32:13,840 --> 00:32:17,740 이제 우리 인간의 한정된 시간은 414 00:32:17,740 --> 00:32:21,140 인공지능 세계에서 아주 빠른 속도로 학습하여 415 00:32:21,140 --> 00:32:24,840 또 특이점을 넘어 인간의 학습 속도를 뛰어넘어가는 416 00:32:24,840 --> 00:32:27,940 그 인공지능과 단순히 시간적으로 비교하기엔 417 00:32:27,940 --> 00:32:36,440 인간은 체력도 건강도 따라주지 않는 시대가 되었습니다. 418 00:32:36,440 --> 00:32:39,240 제가 오늘 혹시 인공지능 윤리를 얘기한다면서 419 00:32:39,240 --> 00:32:42,240 네 가지 키워드를 뭐를 잡았는지 다 기억하시나요? 420 00:32:42,240 --> 00:32:44,840 저는 첫 번째는 선택의 문제를 421 00:32:44,840 --> 00:32:47,340 두 번째는 혐오의 문제를 422 00:32:47,340 --> 00:32:50,140 세 번째는 인간의 노동이 대체될지 모른다는 불안의 문제예요. 423 00:32:50,140 --> 00:32:51,040 세 번째는 인간의 노동이 대체될지 모른다는 불안의 문제예요. 424 00:32:51,140 --> 00:32:53,040 저의 윤리적 문제를 425 00:32:53,040 --> 00:32:56,440 네 번째는 무안적 시간이 주어진 인공지능에 비해 426 00:32:56,440 --> 00:33:02,740 인간은 체력과 시간에 한계가 있다는 것을 얘기하면서 427 00:33:02,740 --> 00:33:05,040 네 가지 키워드로 우리가 마주해야 될 428 00:33:05,040 --> 00:33:07,740 윤리문제에 대해서 얘기를 해 봤는데요. 429 00:33:07,740 --> 00:33:11,340 그럼 진짜 우리가 해야 할 얘기는 이거인 것 같습니다. 430 00:33:11,340 --> 00:33:16,540 우리는 인공지능으로도 대체되지 않는 어떤 영역에서 431 00:33:16,540 --> 00:33:20,140 진짜 우리 인간의 가치를 찾아야 될까요? 432 00:33:20,140 --> 00:33:26,360 저는 여러 번 학생들을 가르치면서 이 학생들에게 질문을 받았습니다. 433 00:33:26,960 --> 00:33:29,420 선생님, 어느 과가 돈 잘 벌어요? 434 00:33:29,420 --> 00:33:33,720 선생님, 무슨 전공을 체크하면 미래가 창창한가요? 435 00:33:34,040 --> 00:33:36,420 선생님, 대학 중에 어디를 선택할까요? 436 00:33:37,040 --> 00:33:43,720 여기는 과가 마음에 드는데 여대고, 여기는 남녀공학인데 과가 마음에 안 드는데 선생님 못 추천하세요? 437 00:33:43,800 --> 00:33:45,400 이런 질문 정말 많이 받거든요. 438 00:33:45,400 --> 00:33:54,280 왜냐하면 우리 아이들이 19년, 20년의 경험 속에서 아직 경험하지 못한 그 경험을 439 00:33:54,280 --> 00:34:00,460 타인의 누군가의 해안으로 보충받기를 바라는 그 마음이 그런 질문으로 이어진 것 같습니다. 440 00:34:02,700 --> 00:34:10,460 예전에는 어른들이 사회 경험이 더 많았고, 어른들이 이 세상에 대해서 메커니즘을 더 잘 이해하고 있었던 시대였습니다. 441 00:34:11,460 --> 00:34:14,460 지금은 여러분들 인터넷을 사용하시고, 442 00:34:15,400 --> 00:34:22,400 인공지능을 사용하는 초, 중, 고등학생들의 발전 속도를 어른들이 따라가기 어려울 것 같은데요. 443 00:34:22,400 --> 00:34:26,400 여러분들은 지금 제가 얘기하는 키워드의 뜻을 알고 계십니까? 444 00:34:35,400 --> 00:34:39,400 이런 얘기를 초, 중, 고등학교 학생들한테 얘기하면 신나게 웃을 텐데요. 445 00:34:39,400 --> 00:34:42,400 어른들은 외계어처럼 들리시죠? 446 00:34:42,400 --> 00:34:45,400 아이들의 알고리즘 속에서 아주 빨리 메커니즘을 발전시키고, 447 00:34:45,400 --> 00:34:51,400 매초 안에 소진되는 도파민을 자극하는 영상들의 알고리즘에 뜨고 있는 밈입니다. 448 00:34:52,400 --> 00:34:59,400 이제 우리는 세상을 더 오래 산 선배로서 우리 다음 세대를 인도해 줄 수 있는 시대를 지났습니다. 449 00:35:00,400 --> 00:35:08,400 똑같은 인공지능의 시대 속에서 우리보다 더 빨리 인공지능에 적응하는 아이들과 동반하여 학습하거나 뒤쳐져서 따라가야 되는 시대가 되었죠. 450 00:35:09,400 --> 00:35:14,400 여기서 어른들은, 인생의 선배들은 무엇으로 아이들을 더 잘 이끌어줄 수 있을까요? 451 00:35:15,400 --> 00:35:22,400 사실 이 모든 얘기, 논의의 마지막은 인간성에 대한 논의로 가는 것 같습니다. 452 00:35:22,400 --> 00:35:26,400 제가 아주 좋아하는 이나모리 가지오라는 사람의 책이 있습니다. 453 00:35:26,400 --> 00:35:32,400 그 책 속에서 이나모리 가지오라는 경영인은 다음과 같이 얘기합니다. 454 00:35:32,400 --> 00:35:38,400 우리의 인생은 우리의 영혼을 보다 숭고하게 만들기 위한 과정이다. 라는 말. 455 00:35:38,400 --> 00:35:42,400 제가 이 책의 문구를 인용하면서 동시에 456 00:35:42,400 --> 00:35:44,400 앞으로 인공지능 시대에 우리가 아이들을 키워내고, 457 00:35:44,400 --> 00:35:47,400 우리가 사회의 방향을 잡아가고, 458 00:35:47,400 --> 00:35:52,400 어떻게 인간이 본연의 인간으로서 살아갈 수 있는지에 대한 얘기를 하기에 앞서서 459 00:35:52,400 --> 00:35:58,400 잠깐 오늘 여기 충청도에서 또 진천에서 여러분들께 인사드리게 되었으니 460 00:35:58,400 --> 00:36:03,400 한 3분 정도 이 앞에 강의하고 있는 저의 얘기를 해도 될까요? 461 00:36:04,400 --> 00:36:08,400 여러분 저는 인천에서 태어났습니다. 462 00:36:08,400 --> 00:36:12,400 아까 얘기했듯이 기생충에 나오는 반지하 월세방에서 살았고요. 463 00:36:12,400 --> 00:36:13,400 중학교 때 수해를 겪었습니다. 464 00:36:14,400 --> 00:36:20,400 집을 다 잃고 그때 인생의 모든 위기는 한 번에 몰아온다고 465 00:36:20,400 --> 00:36:27,400 집도 없어지고 갈 곳도 없는 상황에서 엄마 아빠가 암투병 중이시라는 걸 알게 되고 466 00:36:27,400 --> 00:36:33,400 그 과정에서 저희 아버지가 다니시던 회사가 2년치 임금을 채부라고 부도가 나서 467 00:36:33,400 --> 00:36:39,400 2년치 월급도 못 받았고 집에 돌아갈 것도 없어서 월세방에서 쫓겨나고 468 00:36:39,400 --> 00:36:43,400 왜냐하면 보증금을 이미 깎고 깎고 해서 더 이상 없었거든요. 469 00:36:44,400 --> 00:36:50,400 그래서 어디론가 가야 되는데 갈 곳이 없는 상황이라는 걸 알게 됐습니다. 470 00:36:50,400 --> 00:37:00,400 사실 초등학교만 졸업하신 어머니, 고등학교만 졸업하시고 평생을 저희를 키워주신 아버지, 호떡 장사, 간병인 471 00:37:00,400 --> 00:37:05,400 때로는 회사 트럭을 운전하시면서 저희 세 딸을 키워오신 부모님 밑에서 자라면서 472 00:37:05,400 --> 00:37:12,400 저희 집이 그렇게 어려운지 잘 모르고 있다가 중학교 때 겪었던 수해는 저를 많이 힘들게 했습니다. 473 00:37:12,400 --> 00:37:16,400 사춘기의 우울증이 같이 오던 때 쯤 474 00:37:16,400 --> 00:37:25,400 부모님의 암을 치료할 치료비도 없다는 걸 제가 알게 되면서 크게 충격을 받은 것 같아요. 475 00:37:25,400 --> 00:37:28,400 유일하게 저를 구원 해줄 거라고 믿었던 게 공부였는데 476 00:37:28,400 --> 00:37:36,400 제가 그렇게 정성들여 적었던 노트와 책은 산사태 수해 속에 묻혀진 채 477 00:37:36,400 --> 00:37:40,400 흙탕물 안에서 카레멜 마키아토의 3일은 절인 것 같은 채로 478 00:37:40,400 --> 00:37:41,400 글자는 모두 다 사라지고 종이는 풍성해버렸습니다. 479 00:37:42,400 --> 00:37:43,920 뜯어지지 않는 떡이 되어서 480 00:37:43,920 --> 00:37:47,480 제 공부의 성과도 다 날라가 버렸을 때쯤이었습니다 481 00:37:47,480 --> 00:37:50,920 세상이 날 미워하나? 하늘이 날 미워하나? 482 00:37:51,660 --> 00:37:54,880 하늘은 날 버렸나? 라는 생각을 중학교 때 어리석게 했던 것 같아요 483 00:37:54,880 --> 00:37:58,260 더 살고 싶지 않다는 생각, 다 내려놓고 싶다는 생각 484 00:37:58,260 --> 00:38:00,740 버틸 힘이 없다는 생각을 중학교 때 하면서 485 00:38:00,740 --> 00:38:03,260 죽어버려야겠다는 생각을 하고 486 00:38:03,260 --> 00:38:06,600 중학교 3학년 때 인천에 살고 있을 때 487 00:38:06,600 --> 00:38:08,900 가장 높은 옥상에 올라갔습니다 488 00:38:08,900 --> 00:38:12,620 다 내려놓으면 편해지겠지라고 생각하고 489 00:38:12,620 --> 00:38:14,100 나는 삶에 미련이 없어 490 00:38:14,100 --> 00:38:15,640 어차피 세상은 내 편이 아니야 491 00:38:15,640 --> 00:38:18,000 다 뺏어갔어 라는 생각을 어리석게 하면서 492 00:38:18,000 --> 00:38:21,360 높은 옥상으로 올라갔는데 그때 알았어요 493 00:38:21,360 --> 00:38:24,120 저 고소공포증이 진짜 심하게 있더라고요 494 00:38:24,120 --> 00:38:25,780 너무 무서운 거예요 495 00:38:25,780 --> 00:38:27,900 거기서 죽고 싶지 않았고 496 00:38:27,900 --> 00:38:30,940 죽어도 안 무서운 데서 죽고 싶다는 생각이 들다가 497 00:38:30,940 --> 00:38:34,280 왜 죽어? 살아야지 라는 생각이 크게 입 밖으로 나오더라고요 498 00:38:34,280 --> 00:38:35,840 그때 알았습니다 499 00:38:35,840 --> 00:38:38,760 저는 저를 포기할 수 있는 사람이 아니라는 걸 500 00:38:38,760 --> 00:38:43,100 그리고 저는 저를 미워해서 그 자리에 올라간 게 아니라 501 00:38:43,100 --> 00:38:46,200 저를 너무 사랑해서 저에게 좋은 걸 베풀어주고 싶은데 502 00:38:46,200 --> 00:38:48,260 그러지 못하는 그 압박감에 503 00:38:48,260 --> 00:38:50,180 그 높은 곳에 올라갔다는 걸 알게 돼서 504 00:38:50,180 --> 00:38:55,920 내려오면서 세상을 원망하고 탓하던 이지영은 죽었다고 생각하고 505 00:38:55,920 --> 00:38:59,800 죽을 각오로 열심히 살아봐야겠다는 생각으로 내려왔습니다 506 00:38:59,800 --> 00:39:03,160 가족 모두 갈 데가 없었습니다 507 00:39:03,160 --> 00:39:07,920 여러분들은 자가 아파트, 주택 또는 전세 508 00:39:08,760 --> 00:39:11,520 이런 거주 형태는 많이 들어보셨겠지만 509 00:39:11,520 --> 00:39:14,600 연세라는 말을 들으셨나 모르겠어요 510 00:39:14,600 --> 00:39:18,100 저는 인천 부평구에서 살다가 511 00:39:18,100 --> 00:39:25,440 충북 진천군 덕산면 옥동리에 연세 20만 원짜리 집으로 이사를 왔습니다 512 00:39:25,440 --> 00:39:28,280 제가 고등학교를 다닌 동네에 이렇게 강의를 오게 돼서 513 00:39:28,280 --> 00:39:31,940 너무 감기가 무량하네요 514 00:39:31,940 --> 00:39:33,280 아궁이 떼는 집이었어요 515 00:39:33,280 --> 00:39:34,740 보일러가 없었어요 516 00:39:34,740 --> 00:39:38,600 유리도 없이 여러분들 이런 얘기 좀 아시는 분들은 아시죠? 517 00:39:38,760 --> 00:39:42,860 문풍지라 그래서 얇은 한지로 문이 만들어져 있는 518 00:39:42,860 --> 00:39:46,140 다 쓰러져 가는 집이었습니다 519 00:39:46,140 --> 00:39:49,320 그냥 흙으로 대강 발라놓은 것 같은 집이었어요 520 00:39:49,320 --> 00:39:51,940 집의 형태를 하고 있었지만 521 00:39:51,940 --> 00:39:54,760 정말 힘든 공간이었죠 522 00:39:54,760 --> 00:39:59,000 교과서를 살 돈도 없고 문제집을 살 돈도 없고 523 00:39:59,000 --> 00:40:01,700 교복을 맞출 돈도 없어서 524 00:40:01,700 --> 00:40:06,000 선배들이 버린 교복을 윤기가 반들반들 나는 걸 물려 입고 525 00:40:06,000 --> 00:40:08,560 전교에서 다섯 명만 526 00:40:08,760 --> 00:40:12,320 기초생활수급자 그때 용어는 생활보호 대상자였는데요 527 00:40:12,320 --> 00:40:14,580 에게 주는 무상급식 도시락을 528 00:40:14,580 --> 00:40:17,320 그때 당시에는 급식 도시락이 배달이 왔어요 529 00:40:17,320 --> 00:40:20,280 전교에 다섯 명 생활이 너무 어려운 학생들에게 530 00:40:20,280 --> 00:40:22,960 도시락이 파란색 도시락통이 나왔고 531 00:40:22,960 --> 00:40:27,580 나머지 학생들에게 하얀 도시락통이 나왔습니다 532 00:40:27,580 --> 00:40:30,900 좁은 동네여서 제가 파란 도시락을 먹고 있으면 533 00:40:30,900 --> 00:40:32,120 아이들 다 알고 있었어요 534 00:40:32,120 --> 00:40:35,160 쟤네 집 가난해서 우리 학교에서 제일 가난한 다섯 명에게 535 00:40:35,160 --> 00:40:38,620 급식비 없는 아이들에게 다섯 명에게 파란 도시락을 준다고 해서요. 536 00:40:38,620 --> 00:40:40,620 그걸 모를 수가 없는 게 537 00:40:40,620 --> 00:40:44,200 저만 색깔이 달랐고 저만 가져오는 곳이 달랐습니다 538 00:40:44,200 --> 00:40:47,680 그 도시락을 먹고 있는 제게 친구들이 물어보더라고요 539 00:40:47,680 --> 00:40:49,980 짓궂게 물어본 거죠 괴롭히려고 540 00:40:49,980 --> 00:40:52,480 지영아 너는 왜 도시락이 파래? 라는 질문이 541 00:40:52,480 --> 00:40:55,480 저 아직도 고등학교 때 받았던 질문 중에 남아 있는데 542 00:40:55,480 --> 00:40:57,640 여러분은 어떻게 대답하시겠어요? 543 00:40:57,640 --> 00:41:00,580 집이 가난하고 급식비를 낼 수가 없고 544 00:41:00,580 --> 00:41:06,120 전교 다섯 명에게만 가난의 상징처럼 낙인처럼 주는 파란 도시락통 앞에서 545 00:41:06,120 --> 00:41:07,980 여러분 어떻게 대답하실래요? 546 00:41:07,980 --> 00:41:10,300 전 이렇게 대답했어요 547 00:41:10,300 --> 00:41:13,900 아 글쎄 전교 1등이라서 특식을 주는 게 아닐까? 548 00:41:13,900 --> 00:41:18,260 맛있다 야 너네랑 반찬도 좀 달라 549 00:41:18,260 --> 00:41:20,680 분명 아니란 걸 친구들이 알고 있었지만 550 00:41:20,680 --> 00:41:25,000 그럴 수도 있겠다 라고 설득당했습니다 551 00:41:25,000 --> 00:41:28,480 전 진천고를 나왔는데 거기서 전교 1등이었으니까 552 00:41:28,480 --> 00:41:32,480 이제 그런 식으로 제가 정신승리를 한 거죠 553 00:41:32,480 --> 00:41:37,880 제가 그 높은 옥상 위에서 내려오면서 554 00:41:37,880 --> 00:41:39,880 도저히 우울한 생각이 멈추지가 않아서 555 00:41:39,880 --> 00:41:42,560 사춘기의 우울증이 멈추지 않아서 556 00:41:42,560 --> 00:41:46,240 이것저것 도서관에서 진천도서관에서 책을 빌려다가 557 00:41:46,240 --> 00:41:47,800 막 탐독하기 시작했어요 558 00:41:47,800 --> 00:41:50,040 이 책 저 책 막 다 빌려다 읽었어요 559 00:41:50,040 --> 00:41:54,480 철학책 정치학책 각종 심리학 서적까지 사다가 560 00:41:54,480 --> 00:41:57,820 빌려다가 읽으면서 그 책 속에서 561 00:41:57,820 --> 00:42:02,520 우걱우걱 머릿속에 넣어놨던 그 책 속에서 562 00:42:02,520 --> 00:42:06,280 다음과 같은 문구를 만났습니다 563 00:42:06,280 --> 00:42:07,240 하늘이 장차 큰 인물이 될 사람은? 564 00:42:07,240 --> 00:42:10,080 장차 큰 인물이 될 사람에게는 그 배를 굶주리게 하고 565 00:42:10,080 --> 00:42:14,080 그 뼈를 아프게 하여 그 사람이 그 고난을 이겨낼 566 00:42:14,080 --> 00:42:17,440 기국과 역량이 있는지를 시험하나니 567 00:42:17,440 --> 00:42:19,600 인생의 큰 시련을 만났거든 568 00:42:19,600 --> 00:42:22,360 자신이 하늘의 선택을 받은 자가 아닌지 돌아보아라 569 00:42:22,360 --> 00:42:25,680 라는 맹자의 책의 문구였는데 570 00:42:25,680 --> 00:42:30,240 그 책이 묘하게 위로가 되더라고요 571 00:42:30,240 --> 00:42:31,860 세상을 탓하지 말아야겠다 572 00:42:31,860 --> 00:42:37,080 어차피 신은 처음부터 573 00:42:37,080 --> 00:42:40,240 유복하고 모든 것이 다 갖춰진 환경 속에서 574 00:42:40,240 --> 00:42:42,220 좋은 성과를 주는 게 아니라 575 00:42:42,220 --> 00:42:44,900 척박하고 고난 속에서 그걸 이겨내면서 576 00:42:44,900 --> 00:42:49,040 단단해진 사람에게 선물을 주는 걸지도 모르겠다는 생각을 577 00:42:49,040 --> 00:42:52,420 제 고등학교 때 일기장에 적어놨더라고요 578 00:42:52,420 --> 00:42:55,240 오늘 감사하게도 여러분 앞에서 인공지능에 관련돼서 579 00:42:55,240 --> 00:42:56,880 제가 전공한 윤리분야에서 580 00:42:56,880 --> 00:42:59,400 이렇게 강의를 할 기회가 생기면서 581 00:42:59,400 --> 00:43:02,480 저는 인공지능으로 대체되지 않는 582 00:43:02,480 --> 00:43:05,500 그리고 기계로는 절대 대체할 수 없는 583 00:43:05,500 --> 00:43:06,920 인간만의 영역이 무엇인가에 대해서 584 00:43:06,920 --> 00:43:09,520 생각을 해보게 되었습니다 585 00:43:09,520 --> 00:43:15,240 감정도 없고 정서와 아무런 공감이 없는 기계 속에서 586 00:43:15,240 --> 00:43:18,900 우리가 화면에서 때로는 고맙습니다 대답하고 587 00:43:18,900 --> 00:43:20,680 친구처럼 대화하지만 588 00:43:20,680 --> 00:43:24,000 진짜 본질적인 인간에서 오는 위로 589 00:43:24,000 --> 00:43:26,740 그리고 자기 자신을 돌봄은 590 00:43:26,740 --> 00:43:28,640 인간만이 가진 영역이 아닐까 591 00:43:28,640 --> 00:43:32,520 라는 생각을 해 봅니다 592 00:43:32,520 --> 00:43:34,540 신은 인간한테 선물을 줄 때 593 00:43:34,540 --> 00:43:35,980 포장지에 싸서 준대요 594 00:43:35,980 --> 00:43:36,860 작은 선물에는 595 00:43:36,860 --> 00:43:37,920 작은 포장지를 596 00:43:37,920 --> 00:43:38,660 큰 선물에는 597 00:43:38,660 --> 00:43:40,360 큰 포장지를 598 00:43:40,360 --> 00:43:41,380 그 포장지의 이름은 599 00:43:41,380 --> 00:43:44,660 시련이라는 이름의 포장지라고 합니다 600 00:43:44,660 --> 00:43:46,120 그 포장지를 뜯고 나면 601 00:43:46,120 --> 00:43:49,440 얼마나 큰 선물이 기다릴까 하는 마음이 602 00:43:49,440 --> 00:43:51,620 저를 척박한 환경 속에서 603 00:43:51,620 --> 00:43:54,060 버틸 수 있게 해 주었습니다 604 00:43:54,060 --> 00:43:58,100 때로는 이렇게 짧은 강의에 한 멘트도 605 00:43:58,100 --> 00:44:01,080 우리는 위로받고 606 00:44:01,080 --> 00:44:04,140 나의 상황에 대입해 보기도 합니다 607 00:44:04,140 --> 00:44:06,180 인간만이 할 수 있는 위로와 608 00:44:06,180 --> 00:44:08,680 인간만이 할 수 있는 공감이 609 00:44:08,680 --> 00:44:10,560 우리를 이 다음 세계에서 610 00:44:10,560 --> 00:44:13,420 더 인간이게 하는 요소일 거라는 생각을 611 00:44:13,420 --> 00:44:15,320 첫 번째로 해 봤고요 612 00:44:15,320 --> 00:44:16,940 두 번째는 613 00:44:16,940 --> 00:44:20,380 시간은 기계에게는 더 무한정이고 614 00:44:20,380 --> 00:44:21,940 휴식도 필요 없지만 615 00:44:21,940 --> 00:44:25,120 우리 인간이 진짜 인간으로서 616 00:44:25,120 --> 00:44:26,980 그 기계의 속도에 따라가기 위해 617 00:44:26,980 --> 00:44:29,620 발버둥치다가 지쳐 버리는 것이 아니라 618 00:44:29,620 --> 00:44:32,420 더 본질적인 인간의 느림의 속도로 619 00:44:32,420 --> 00:44:36,040 인간일 수 있는 영역에 대해서 얘기하고 620 00:44:36,040 --> 00:44:37,580 싶어졌어요 621 00:44:37,580 --> 00:44:39,460 여러분 알고 계신 분도 계시겠지만 622 00:44:39,460 --> 00:44:40,620 제가 TV에 나가서 623 00:44:40,620 --> 00:44:43,260 또는 강연 중에 언급한 적도 있지만 624 00:44:43,260 --> 00:44:46,780 저 정말 미련 무식한 사람입니다 625 00:44:46,780 --> 00:44:50,220 독하게 사는 것만이 저를 구원해 줄 거라고 생각하면서 626 00:44:50,220 --> 00:44:51,560 정말 독하게 살았어요 627 00:44:51,560 --> 00:44:55,200 저 고등학교 때 하루에 3, 4시간 자가면서 공부했고 628 00:44:55,200 --> 00:44:57,980 강사가 돼서도 월화수목 금금금 629 00:44:57,980 --> 00:45:01,120 일주일에 40시간을 촬영하고 630 00:45:01,120 --> 00:45:06,020 1년에 30건 40건이 넘는 교재를 집필해 가면서 강의를 하면서 살고 있었어요 631 00:45:06,040 --> 00:45:09,360 그 동안은 정말 독함이 나의 성공의 근원이라고 생각했었고 632 00:45:09,360 --> 00:45:11,160 독함은 나를 버티게 해주는 거고 633 00:45:11,160 --> 00:45:17,160 독함이 나의 가난을 벗어나게 해주는 유일한 동아줄이라고 생각했는데 634 00:45:17,160 --> 00:45:22,480 그게 틀렸다는 생각을 2017년, 2018년쯤 하게 됐어요 635 00:45:22,480 --> 00:45:25,000 배가 너무 아픈데 책을 쓰고 있었는데 636 00:45:25,000 --> 00:45:34,680 제가 책의 마감 때문에 진통제를 먹으며 버텼던 그 고통이 637 00:45:34,680 --> 00:45:35,480 사실은 638 00:45:35,480 --> 00:45:37,240 병원에 실려가 보니 639 00:45:37,240 --> 00:45:41,700 맹장이 터져서 복막염으로 진행된 지 4일이 방치된 채 640 00:45:41,700 --> 00:45:44,300 제가 책을 쓰고 있는 거였더라고요 641 00:45:44,300 --> 00:45:50,280 온몸에 고름이 노란색 농이라고 하는 고름이 강처럼 흐르는 걸 642 00:45:50,280 --> 00:45:54,480 세척하고 세척하느라 수술을 매우 길게 하고 643 00:45:54,480 --> 00:45:57,880 그 후에도 몸이 회복되지 못해서 644 00:45:57,880 --> 00:46:04,720 사망 확률이 50%에서 70%가 넘는다는 폐혈증에 걸렸었던 적이 있습니다 645 00:46:04,720 --> 00:46:05,480 제가 학생들한테 646 00:46:05,480 --> 00:46:07,140 제가 인기가 좀 있는 강사입니다 647 00:46:07,140 --> 00:46:08,320 선생님 너무 좋아요 648 00:46:08,320 --> 00:46:09,900 국영수 강의 또 선생님이 해주세요 649 00:46:09,900 --> 00:46:12,840 라고 저를 좋아했던 학생들이 650 00:46:12,840 --> 00:46:16,120 제가 아파서 스타강사 건강악화로 강의 중단 651 00:46:16,120 --> 00:46:18,800 이라고 기사가 뜨고 나니 652 00:46:18,800 --> 00:46:22,040 다음과 같이 악플을 달더라고요 653 00:46:22,040 --> 00:46:26,600 왜 이지영은 내가 고3일 때 아프고 지랄이야 654 00:46:26,600 --> 00:46:30,200 그때 생각했습니다 655 00:46:30,200 --> 00:46:33,480 변해가는 세상 속에서 빠르게 뼈를 깎는 노력으로 656 00:46:33,480 --> 00:46:34,120 독하게 버티고 적응해가는 것입니다. 657 00:46:34,120 --> 00:46:34,580 변해가는 세상 속에서 빠르게 뼈를 깎는 노력으로 독하게 버티고 적응해가는 것입니다. 658 00:46:34,580 --> 00:46:35,160 변해가는 세상 속에서 빠르게 뼈를 깎는 노력으로 독하게 버티고 적응해가는 것입니다. 659 00:46:35,480 --> 00:46:39,820 나가고 도태되지 않기 위해 노력하는 것보다 더 중요한 게 있을 수도 있다는 생각. 660 00:46:41,600 --> 00:46:45,000 건강을 잃으니 저는 최고의 배신자가 되어 있더라고요. 661 00:46:45,440 --> 00:46:50,240 제가 그동안 한국의 비정상적인 입시 교육 속에서 과도한 수혜를 662 00:46:50,240 --> 00:46:56,120 받아서 벌었던 모든 돈도 제가 그렇게 아프니 회사에서 건강 악화로 인한 663 00:46:56,120 --> 00:47:01,820 강의 중단의 손해배상금에 이미 판매된 강의 금액의 환불금과 여러 664 00:47:01,820 --> 00:47:09,260 마케팅비 지연비 등을 통틀어 300억 원의 손해배상을 청구했던 적이 있습니다. 665 00:47:11,220 --> 00:47:13,260 이런 생각이 들었습니다. 666 00:47:14,900 --> 00:47:18,460 나를 잃고서 얻어야 될 가치는 이 세상에 아무것도 없습니다. 667 00:47:19,380 --> 00:47:21,880 여러분 건강하셔야 돼요. 668 00:47:21,880 --> 00:47:26,300 여러분의 육체 건강과 여러분의 정신 건강을 잘 지켜주셨으면 좋겠습니다. 669 00:47:27,380 --> 00:47:30,760 나를 잃고서 얻어야 될 어떤 가치 있는 성취도 없으며 670 00:47:30,760 --> 00:47:31,800 나를 혹사하여서 671 00:47:31,820 --> 00:47:34,940 혹사시켜서 얻은 어떠한 달콤한 성취도 672 00:47:34,940 --> 00:47:39,240 그 다음 단계의 자기 혹사를 위한 변명이 되는 경우가 많습니다. 673 00:47:40,200 --> 00:47:41,640 세상이 빠르게 변해가고 있습니다. 674 00:47:42,380 --> 00:47:46,320 이 빠르게 변해가는 과정 속에서 저는 이런 꿈이 생겼어요. 675 00:47:47,360 --> 00:47:53,180 요즘 K-POP, K-컬처, K-컨텐츠가 OTT 시장과 전세계 유튜브에서 676 00:47:53,180 --> 00:47:54,620 많은 인기를 끌고 있잖아요. 677 00:47:55,860 --> 00:48:00,820 한국인의 정서로, 한국인의 말투로, 인간다움에 대해 논의하는 K-인문학이 678 00:48:01,060 --> 00:48:01,300 K-인문학이 679 00:48:01,300 --> 00:48:01,540 K-인문학이 680 00:48:01,540 --> 00:48:05,900 더 한국어로 정서적으로 어우러 만지면서 681 00:48:05,900 --> 00:48:09,360 인공지능에 의해 대체되지 않는 영역을 논의할 수 있다면 682 00:48:09,360 --> 00:48:12,460 참 가치 있는 일일 수 있겠다는 생각이 들었습니다. 683 00:48:13,140 --> 00:48:15,240 제가 오늘 강의를 오게 된 이유가 있습니다. 684 00:48:15,640 --> 00:48:17,000 참 어려운 주제인데요. 685 00:48:17,480 --> 00:48:20,540 제가 오늘 오전에 청주지방법원에서 686 00:48:20,540 --> 00:48:25,200 법원 직원분들과 자녀분들 앞에서 했던 강의는 687 00:48:25,200 --> 00:48:28,440 꿈을 현실로 만드는 방법이라는 내용이었어요. 688 00:48:28,440 --> 00:48:33,940 거기서는 건강, 회복탄력성, 인간관계에 대해서 논의를 했는데요. 689 00:48:33,940 --> 00:48:37,660 인공지능을 논의한다는 것은 철학도 많이 언급해야 되고 690 00:48:37,660 --> 00:48:41,240 좀 어려운 내용이지만 본질은 변하지 않는 것 같습니다. 691 00:48:41,240 --> 00:48:46,280 아무리 빠르게 세상이 변해도 바뀌지 않는 우리의 진짜 본질, 692 00:48:46,280 --> 00:48:51,720 아침에 일어나서 눈 뜨는 이유에 대해서 시작하는 것부터 693 00:48:51,720 --> 00:48:54,080 인공지능 시대의 윤리는 시작하는 것 같습니다. 694 00:48:54,080 --> 00:48:56,480 여러분은 왜 사시나요? 695 00:48:56,480 --> 00:48:58,400 왜 아침에 눈을 떠서, 696 00:48:58,440 --> 00:49:00,820 직장으로 출근을 하시나요? 697 00:49:00,820 --> 00:49:07,640 그리고 왜 변화에 적응하기 위한 이런 변화들을 같이 연구하고 계신가요? 698 00:49:07,640 --> 00:49:09,520 우리는 모두 알고 있지만, 699 00:49:09,520 --> 00:49:12,580 또 철학자들도 아주 오랫동안 언급해 왔지만, 700 00:49:12,580 --> 00:49:14,640 행복하기 위해서 삽니다. 701 00:49:14,640 --> 00:49:21,860 행복한 과정 속에 모든 키워드가 성공과 경쟁의 승리와 702 00:49:21,860 --> 00:49:25,560 능력 개발로 점철되어 있는 세상 속에서 703 00:49:25,560 --> 00:49:27,880 조금 더 느리게 나를 되돌아 보는 것, 704 00:49:27,880 --> 00:49:30,020 알고리즘의 노예가 되지 않고, 705 00:49:30,020 --> 00:49:34,100 기계에 대체되지 않고 보다 빛날 수 있는 우리의 정신을 706 00:49:34,100 --> 00:49:35,800 숭고하게 바라보는 것, 707 00:49:35,800 --> 00:49:40,420 그것부터 저는 새로운 시대의 윤리가 또 와야 된다고 생각합니다. 708 00:49:40,420 --> 00:49:43,960 아까 제가 이나모리 가지오의 책을 언급하면서 709 00:49:43,960 --> 00:49:46,560 강의의 두 번째 파트로 왔는데요. 710 00:49:46,560 --> 00:49:50,720 우리는 살아가면서 육체만 성장하지 않습니다. 711 00:49:50,720 --> 00:49:55,260 내 안에 있는 빛나는 정신, 그 정신이 육체 외면적인 것들에 의해서, 712 00:49:55,260 --> 00:49:55,880 육체만 성장하지 않습니다. 내 안에 있는 빛나는 정신, 그 정신이 육체 외면적인 것들에 의해서, 713 00:49:55,880 --> 00:49:57,920 육체만 성장하지 않습니다. 내 안에 있는 빛나는 정신, 그 정신이 육체 외면적인 것들에 의해서, 714 00:49:57,920 --> 00:50:04,140 우선순위가 밀리지 않고 쪼그라들지 않도록 노력하는 것부터 시작이라고 생각합니다. 715 00:50:04,140 --> 00:50:05,660 제가 학생들을 많이 가르치는데, 716 00:50:05,660 --> 00:50:09,580 우리 학생들이 외모지상주의 시대를 살아가고 있어요. 717 00:50:09,580 --> 00:50:15,600 왜냐하면 되고 싶은 가장 이상적인 모델이 아이브의 장원영님인데, 718 00:50:15,600 --> 00:50:19,420 그렇게 타고나지 않는 한 그렇게 살 빼기 정말 어렵거든요. 719 00:50:19,420 --> 00:50:24,040 많은 학생들이 식이장애를 겪고, 먹고 싶은 걸 먹지 못하고, 720 00:50:24,040 --> 00:50:30,560 어른들조차도 위고비를 맞으면 살이 빠질지를 검색해보는 시대. 721 00:50:30,560 --> 00:50:36,760 외모에 이렇게 많은 것을 치중하고, 외모 경쟁력이 자신의 경쟁력이라고 믿는 시대 속에서, 722 00:50:36,760 --> 00:50:43,660 그 안에 쪼그라들어가는 우리의 정신과 지쳐있는 마음을 잘 얘기하지 않는 시대가 된 것 같아요. 723 00:50:43,660 --> 00:50:51,180 무엇을 보고 무엇을 채우며 무엇으로 내가 살아나갈지에 대해서 생각하는 것보다, 724 00:50:51,180 --> 00:50:53,820 얼마나 나는 외부적인 지표도 없는지, 725 00:50:53,820 --> 00:50:54,020 얼마나 나는 외부적인 지표도 없는지, 726 00:50:54,020 --> 00:51:00,540 이걸로 경쟁력이 있으며, 얼마의 연봉을 받고 있고, 몇 평의 아파트에 살고 있으며, 727 00:51:00,540 --> 00:51:06,680 어떻게 이직 커리어를 쌓아왔는지에 많이 초점을 맞추는 시대가 되어버렸습니다. 728 00:51:06,680 --> 00:51:16,380 때로는 외면적인 아름다움보다, 외면적인 스펙보다 내 안에 지쳐있는 마음을 스스로 달래줄 수 있는 담론이 지배적일 때, 729 00:51:16,380 --> 00:51:23,800 겉으로 어떤 포장지에 쌓여있고, 어떤 모습을 하고 있든 그 안에 있는 빛나는 영혼을 서로 존경할 수 있는 문화가 될 때, 730 00:51:23,800 --> 00:51:30,320 그 안에서의 영혼적 변화는 시작되고, 기계에 의해 대체되지 않는 인간성을 지켜나가는 시대가 될 것 같다는 생각이 들었습니다. 731 00:51:30,320 --> 00:51:40,680 제가 이 강의를 준비하고 있는데, OpenAI의 창업자, Sam Altman이 최근 이틀간 기사에 다음과 같은 경고를 하더라고요. 732 00:51:40,680 --> 00:51:53,580 인공지능 시대에 해킹 피해가 늘어날 수 있으며, 안면과 목소리까지 똑같이 카피한 보이스피싱 범죄가 늘어나니 조심해라 라는 경고를 하더라고요. 733 00:51:53,800 --> 00:51:59,620 아래 댓글에 그렇게 위험한 걸 알면서 왜 처음 안 들었냐는 댓글이 달렸습니다. 734 00:51:59,620 --> 00:52:05,920 제가 아까 테슬라 CEO 상업 이런 얘기 했었죠. 735 00:52:05,920 --> 00:52:11,120 자본주의는 보다 윤리적인 성찰의 속도로 늦춰주는 게 아니라, 736 00:52:11,120 --> 00:52:19,180 어떻게 더 많은 투자를 받고, 어떻게 더 많은 시설 설비를 받고, 어떻게 더 많은 이윤을 창출할 수 있을지를 고민하면서, 737 00:52:19,180 --> 00:52:22,600 자율주행 자동차, 휴머노이드 로봇 비서, 738 00:52:22,600 --> 00:52:25,500 강인공지능을 만들어 낼 겁니다. 739 00:52:25,500 --> 00:52:33,100 자본의 논리로 변해가는 세상 속에서 우리가 자본의 속도를 다 쥐어들고, 740 00:52:33,100 --> 00:52:42,000 규제와 견제만 하다가는 전 세계적인 인공지능의 기술 패권의 시대에 도태될지도 모르겠다는 생각이 들었습니다. 741 00:52:42,000 --> 00:52:52,580 얼마 전에 한국 법원에서는 특정 보이스 코치이면서 보컬 코치인 여성분의 목소리가 AI로 하고, 742 00:52:52,580 --> 00:53:03,080 AI 음성 합성 프로그램이 판매되는 것에 대해서 그 여성분이 나의 목소리가 이렇게 광범위적으로 활용될지 몰랐고, 743 00:53:03,080 --> 00:53:09,280 판매를 중단해 달라, 나는 내 목소리로 인공지능 목소리를 합성하는 것을 동의했지만, 744 00:53:09,280 --> 00:53:17,480 이것이 모든 영역에 판매되는 것까지는 동의하지 않았다, 라고 가처분 신청을 내서 법원이 그 여성분의 편을 들어준 기사가 있었는데요. 745 00:53:17,480 --> 00:53:22,420 그 기사 댓글에도 이렇게 규제가 심하니 우리나라의 인공지능 발전이 불가능하다고, 746 00:53:22,420 --> 00:53:26,220 발전이 늦지라는 댓글이 달리는 것을 보았습니다. 747 00:53:26,220 --> 00:53:29,720 맞는 말이면서도 일견 슬프다는 생각도 듭니다. 748 00:53:29,720 --> 00:53:40,080 자본주의의 거대 자본이 움직여가는 속도에 우리는 과연 윤리적 브레이크를, 기술의 발전을 전제하지 않으면서 제대로 걸 수는 없을까요? 749 00:53:40,080 --> 00:53:52,060 그 모든 윤리적 브레이크는 강제적인 법적 규제나 법원의 판단보다는 대체적인 전 국민의 윤리적 컨센서스, 즉 인문학적 공감대로부터 시작된다고 생각합니다. 750 00:53:52,060 --> 00:53:52,400 그 모든 윤리적 브레이크는 강제적인 법적 규제나 법원의 판단보다는 대체적인 전 국민의 윤리적 컨센서스, 즉 인문학적 공감대로부터 시작된다고 생각합니다. 751 00:53:52,400 --> 00:53:52,420 그 모든 윤리적 브레이크는 강제적인 법적 규제나 법원의 판단보다는 대체적인 전 국민의 윤리적 컨센서스, 즉 인문학적 공감대로부터 시작된다고 생각합니다. 752 00:53:52,420 --> 00:53:53,060 그 모든 윤리적 브레이크는 강제적인 법적 규제나 법원의 판단보다는 대체적인 전 국민의 윤리적 컨센서스, 즉 인문학적 공감대로부터 시작된다고 생각합니다. 753 00:53:53,060 --> 00:54:06,600 오늘 그래서 이런 어려운 주제로 만나 뵙게 됐지만, 제가 여기서 드린 질문 중 하나라도 더 넓게 논의되고 더 넓게 토의되서 그것이 자본가들을 반성하게 할 수 있고, 754 00:54:06,600 --> 00:54:16,780 자본의 방향이 너무나도 인간의 윤리를 외면하는 방향이 되지 않도록 하는데, 논의의 시작점이 된다면 기쁘다는 마음으로 이렇게 찾아왔습니다. 755 00:54:17,680 --> 00:54:19,860 강의의 마지막은 다음과 같습니다. 756 00:54:20,620 --> 00:54:23,860 건강합시다. 그리고 자기 자신을 잘 도봅시다. 757 00:54:23,860 --> 00:54:33,860 어떤 변화 속에서도 변치 않는, 외부적인 것으로 숫자로 설명되지 않는 자기 자신의 내면의 정신의 맑음을 항상 유지하시면서, 758 00:54:33,860 --> 00:54:43,860 변화에 항상 매의 눈을 가지고 주시하되, 우리 인류가 나아갈 방향으로 한 번은 논의에 참여할 수 있는 그런 사회가 오기를 바라면서 이 강의를 마치도록 하겠습니다. 759 00:54:43,860 --> 00:54:44,860 감사합니다. 760 00:55:03,860 --> 00:55:13,860 네, 안녕하세요. 저는 너무 좋은 강의를 해주셔서 제가 그런 보호에 참석을 해서 제가 강의를 안 들었었는데, 761 00:55:13,860 --> 00:55:24,860 제가 강의를 듣던 도중에 의문이 좀 생겼던 게 말씀하셨던 그 유바라의 액서스라는 생명을 읽었었는데요. 762 00:55:24,860 --> 00:55:32,860 저도 거기에 또 이제 지역들이 페이스북에 일화를 부르면서 어떤 콘텐츠를 초기자들에게 자극하는 것에 있어서 평화롭게 생각하고 있습니다. 763 00:55:32,860 --> 00:55:33,860 감사합니다. 764 00:55:33,860 --> 00:55:40,860 평화롭게 생각하는 그런 소재가 가장 또 시장에서도 효과적이었고, 그런 형태가 작용이 되었다고 들었어요. 765 00:55:40,860 --> 00:55:52,860 그래서 이런 게 있었고, 그런 걸 봤을 때 평화라는 콘텐츠를 초기화하는 인간의 어떤 본성이 그런 악한 쪽에 성악적에 접합한 건지, 766 00:55:52,860 --> 00:55:59,860 사람이 선하다는 그런 악한, 평화라는 콘텐츠를 초기화하지 않을 수 있는 거잖아요. 767 00:55:59,860 --> 00:56:02,860 그런데 기업들도 그거를 어떻게 보면 용의를 하게 되고, 768 00:56:02,860 --> 00:56:03,860 소비자들도, 769 00:56:03,860 --> 00:56:09,860 그것들을 다 평화라는 콘텐츠를 소비하니까 그것들이 계속 이어지겠다고 생각을 하는데, 770 00:56:09,860 --> 00:56:15,860 혹시 이거에 대해서 어떤 생각을 가지고 있으신지 여쭤보고 싶습니다. 771 00:56:15,860 --> 00:56:18,860 질문이 참 수준 높고 어렵네요. 772 00:56:18,860 --> 00:56:22,860 여러분, 제가 고양이를 좋아합니다. 773 00:56:22,860 --> 00:56:28,860 고양이가 유튜브 알고리즘과 인스타 쇼츠 릴스에 많이 떠요. 774 00:56:28,860 --> 00:56:30,860 가끔 고양이를 길게 보다 보면, 775 00:56:30,860 --> 00:56:32,860 제가 시청한 시간과, 776 00:56:32,860 --> 00:56:39,860 좋아요 하트 반응과 댓글을 쓰는 시간에 비례해서 유사 영상이 많이 추천이 됩니다. 777 00:56:39,860 --> 00:56:45,860 그 귀여운 고양이만 보고 싶은데 가끔 한문철 TV에 CCTV가 뜰 때가 있습니다. 778 00:56:45,860 --> 00:56:47,860 인천대교에 교통사고 하나가 떴는데, 779 00:56:47,860 --> 00:56:51,860 순식간에 차량이 날아가면서 사라졌는데, 780 00:56:51,860 --> 00:56:58,860 사각지대 속에서 정말 조그마하게 잔인하게 이렇게 차가 완전히 압축되어서 이렇게, 781 00:56:58,860 --> 00:57:01,860 아마도 그분이 유명을 달리하셨을 것 같은데요. 782 00:57:01,860 --> 00:57:06,860 근데 그게 너무 자극적이고 너무 징그러워서 눈을 질끈 감았다가, 783 00:57:06,860 --> 00:57:10,860 그래서 운전자가 어떻게 됐을지 너무 궁금해서 그 영상을 10번 정도 다, 784 00:57:10,860 --> 00:57:13,860 그 조그마하게 1초 가는 영상을 봤는데, 785 00:57:13,860 --> 00:57:21,860 그 댓글에도 그분이 돌아가셨는지 어떤 사건이었는지 궁금해서 몇 명이나 타고 있었는지 막 댓글에 언급이 됐더라고요. 786 00:57:21,860 --> 00:57:26,860 그걸 좀 읽었더니 제 유튜브 알고리즘이 핏빛으로 물들게 되었습니다. 787 00:57:26,860 --> 00:57:30,860 제가 그걸 보면서 이런 생각을 했어요. 788 00:57:30,860 --> 00:57:33,860 인간은 아까 기게스의 반지를 얘기한 것처럼, 789 00:57:33,860 --> 00:57:40,860 내 자신을 솔직히 들여다볼 때 항상 선하고 도덕적인 내용물만으로 가득 차 있진 않습니다. 790 00:57:40,860 --> 00:57:47,860 때로는 혐오적이거나 선정적이거나 폭력적인 것이 인간의 뇌를 더 강렬하게 자극하게 하여 791 00:57:47,860 --> 00:57:52,860 그런 것에 시선이 머무는 것은 인간의 본능의 영역이라고 생각합니다. 792 00:57:52,860 --> 00:57:59,860 때로는 모든 것이 규제되고 모든 것이 다 이렇게, 793 00:57:59,860 --> 00:58:05,860 규칙과 룰이 있는 상황 속에서 나 혼자 보는 화면 속에서도 794 00:58:05,860 --> 00:58:12,860 그거를 보지 못하게 하는 것이 인간성에 제대로 부합하는가에 대한 고민은 분명히 있을 것 같습니다. 795 00:58:12,860 --> 00:58:15,860 하지만 이 얘기는 드려야 될 것 같아요. 796 00:58:15,860 --> 00:58:18,860 여러분 마카롱 좋아하십니까? 797 00:58:18,860 --> 00:58:21,860 제가 왜 마카롱 얘기를 하는지 한번 들어보세요. 798 00:58:21,860 --> 00:58:25,860 저는 돼지고기가 마카롱보다 더 좋습니다. 799 00:58:25,860 --> 00:58:27,860 소고기는 더 좋고요. 800 00:58:27,860 --> 00:58:29,860 마카롱 먹으면 너무 달아서요. 801 00:58:29,860 --> 00:58:32,860 미간을 찌푸리면서 아우 달아 라고 얘기합니다. 802 00:58:32,860 --> 00:58:36,860 얼마 전에 5살짜리 먼 친척 동생을 만났는데 803 00:58:36,860 --> 00:58:41,860 마카롱을 먹으면서 머리에서 폭죽이 터진다고 표현하더라고요. 804 00:58:41,860 --> 00:58:43,860 너무 맛있다고 얘기를 했어요. 805 00:58:43,860 --> 00:58:46,860 그 얘기는 왜 그런지 알고 계신가요? 806 00:58:46,860 --> 00:58:48,860 이공계분들은 더 알고 계실 수도 있겠지만 807 00:58:48,860 --> 00:58:54,860 단맛에 대해서 어른이 느끼는 감각과 아이들의 감각이 더 다르기 때문이죠. 808 00:58:54,860 --> 00:58:57,860 우리는 어느 정도 성인이 되었고 일자리가 있고 809 00:58:57,860 --> 00:58:59,860 그 속에서 해야 될 일은 없죠. 810 00:58:59,860 --> 00:59:01,860 그 속에서 해야 될 일이 있는 속에서 811 00:59:01,860 --> 00:59:04,860 도파민을 자극하는 영상들을 보면서 812 00:59:04,860 --> 00:59:08,860 이 영상에 완전히 몰입하거나 하루 종일 그것만 볼 수 없는 813 00:59:08,860 --> 00:59:12,860 저의 테스트, 업무 영역들이 있잖아요. 814 00:59:12,860 --> 00:59:15,860 그런데 아이들은, 정말 어린 아이들은 815 00:59:15,860 --> 00:59:20,860 아직 완전히 성숙하기 전이고 뇌도 자극에 더 예민하고 816 00:59:20,860 --> 00:59:22,860 자기 통제력이 더 부족한 상황 속에서 817 00:59:22,860 --> 00:59:26,860 그렇게 성정적이고 자극적이고 퇴폐적이고 폭력적인 것들에 818 00:59:26,860 --> 00:59:28,860 무제한 노출되게 되면 819 00:59:28,860 --> 00:59:31,860 이것이 나쁘다라고 판단이 제대로 형성되기 전에 820 00:59:31,860 --> 00:59:36,860 뇌의 특정 부분이 또는 아이의 심리와 정서적인 어떤 부분이 821 00:59:36,860 --> 00:59:40,860 분명히 조장되는 측면이 있다고 생각합니다. 822 00:59:40,860 --> 00:59:44,860 폭력과 혐오는 인간이 내면 안에 부끄럽지만 숨어있는 823 00:59:44,860 --> 00:59:47,860 아주 본질적인 감정 중의 하나입니다. 824 00:59:47,860 --> 00:59:50,860 물론 인간에게 그것만 있는 것은 아니지만요. 825 00:59:50,860 --> 00:59:58,860 하지만 적어도 어린아이들의 유튜브 또는 인스타 사용의 알고리즘 안에 826 00:59:58,860 --> 01:00:04,860 교재될 수 있을 때, 적어도 성인이 되어서 본인이 판단할 수 있을 때 827 01:00:04,860 --> 01:00:08,860 만나게 되는 것보다는 훨씬 더 중요하다는 것부터 828 01:00:08,860 --> 01:00:10,860 논의가 시작되어야 될 것 같습니다. 829 01:00:10,860 --> 01:00:14,860 완벽의 세계를 살지 못하는 재계는 최선보다는 차선, 830 01:00:14,860 --> 01:00:18,860 최악보다는 차악을 선택할 수밖에 없는데요. 831 01:00:18,860 --> 01:00:21,860 제가 아까도 자본주의의 논리를 말씀드렸잖아요. 832 01:00:21,860 --> 01:00:26,860 분명히 페이스북을 운영하고 인스타를 운영하는 메타 또는 유튜브에서는 833 01:00:26,860 --> 01:00:31,860 그런 선정적이고 폭력적이고 자극적인 영상에 사람들이 더 많이 머물수록 834 01:00:31,860 --> 01:00:35,860 광고를 더 많이 딸 수 있고, 더 많은 사용자를 확보할 수 있고 835 01:00:35,860 --> 01:00:41,860 사용시간을 확보할 수 있기 때문에 아마 그런 선정적이고 자극적인 컨텐츠를 836 01:00:41,860 --> 01:00:43,860 멈추기 쉽지 않을 것 같습니다. 837 01:00:43,860 --> 01:00:50,860 자본의 논리가 때로는 도덕적 반성보다 더 과히 나가는 거죠. 838 01:00:50,860 --> 01:00:55,860 하지만 자라나는 아이들을 그런 것에서 멀어지도록 도와주는 것, 839 01:00:55,860 --> 01:01:02,860 알고리즘에 차단해주는 것, 그리고 어떤 방식으로든 그런 것들이 조장되지 않도록 해주는 것은 840 01:01:02,860 --> 01:01:08,860 먼저 세상을 살아서 도덕능력이 확립된, 확립되어가는 어른들이 해야 될 841 01:01:08,860 --> 01:01:11,860 가장 최소한의 보루라는 생각이 들었습니다. 842 01:01:11,860 --> 01:01:17,860 아마 그 질문의 정확한 답보다는 자본주의의 논리가 우리 자라나는 아이들에게 843 01:01:17,860 --> 01:01:22,860 너무 잔인하게 침투하지 않도록 어른들이 노력하는 규제부터 필요하겠다는 생각으로 844 01:01:22,860 --> 01:01:24,860 동문서답을 해보겠습니다. 845 01:01:25,860 --> 01:01:40,860 인공지능 윤리 말고 개인적인 질문도 괜찮습니다. 846 01:01:40,860 --> 01:01:41,860 더 대답하기 편합니다. 847 01:01:41,860 --> 01:01:42,860 한 번만 더. 848 01:01:42,860 --> 01:01:43,860 네. 849 01:01:43,860 --> 01:01:44,860 네. 850 01:01:44,860 --> 01:01:45,860 . 851 01:01:45,860 --> 01:01:46,860 . 852 01:01:46,860 --> 01:01:47,860 . 853 01:01:47,860 --> 01:01:48,860 . 854 01:01:48,860 --> 01:01:49,860 . 855 01:01:49,860 --> 01:01:50,860 . 856 01:01:50,860 --> 01:01:51,860 . 857 01:01:51,860 --> 01:01:52,860 . 858 01:01:52,860 --> 01:01:53,860 . 859 01:01:53,860 --> 01:01:54,860 . 860 01:01:54,860 --> 01:01:55,860 . 861 01:01:55,860 --> 01:01:56,860 . 862 01:01:56,860 --> 01:01:57,860 . 863 01:01:57,860 --> 01:01:58,860 . 864 01:01:58,860 --> 01:01:59,860 . 865 01:01:59,860 --> 01:02:00,860 . 866 01:02:00,860 --> 01:02:01,860 . 867 01:02:01,860 --> 01:02:02,860 . 868 01:02:02,860 --> 01:02:03,860 . 869 01:02:03,860 --> 01:02:04,860 . 870 01:02:04,860 --> 01:02:05,860 . 871 01:02:05,860 --> 01:02:06,860 . 872 01:02:06,860 --> 01:02:07,860 . 873 01:02:07,860 --> 01:02:08,860 . 874 01:02:08,860 --> 01:02:09,860 . 875 01:02:09,860 --> 01:02:10,860 . 876 01:02:10,860 --> 01:02:11,860 . 877 01:02:11,860 --> 01:02:12,860 . 878 01:02:12,860 --> 01:02:13,860 . 879 01:02:13,860 --> 01:02:14,860 . 880 01:02:14,860 --> 01:02:15,860 . 881 01:02:15,860 --> 01:02:17,860 . 882 01:02:17,860 --> 01:02:18,860 . 883 01:02:18,860 --> 01:02:19,860 . 884 01:02:19,860 --> 01:02:20,860 . 885 01:02:20,860 --> 01:02:21,860 . 886 01:02:21,860 --> 01:02:22,860 . 887 01:02:22,860 --> 01:02:23,860 . 888 01:02:23,860 --> 01:02:24,860 . 889 01:02:24,860 --> 01:02:38,320 라고 얘기하셔서 철학 전공을 많이 말리셨고 사범대를 가면 교원 자격증이 나오니 그 교원 자격증이 있는 상태에서 또 미래를 여러 가지 갈래로 고민해볼 수 있지 않냐라는 조언에 힘입어 890 01:02:38,320 --> 01:02:44,500 제가 윤리 교육이라고 하는 전공을 선택을 하게 됐어요. 계속 학자가 되고 싶었습니다. 891 01:02:44,760 --> 01:02:52,640 사실은 서울대를 졸업하고서 석사과정도 박사과정도 윤리 철학 쪽으로 제가 선택을 해서 공부를 했는데요. 892 01:02:52,640 --> 01:03:03,620 어느 순간 학자의 길을 걷기 위해서는 국내 박사로는 부족할 수도 있고 해외 학위가 필요할 수 있다는 조언들이 있더라고요. 893 01:03:04,300 --> 01:03:15,900 유학 자금을 모으기 위해서 강사가 되었는데 강사가 되고 나서 제가 마이크를 잡으면 상당히 강의에 재능이 있다는 걸 어느 순간 알게 되었고 894 01:03:15,900 --> 01:03:21,200 제가 왜 학자가 되고 싶은가에 대한 근원적인 고민부터 다시 시작해보게 되었어요. 895 01:03:21,200 --> 01:03:22,320 저는 896 01:03:22,320 --> 01:03:33,560 제가 죽고 나서도 제가 쓴 책이 하나의 질문을 가치 있게 던지고 갔으면 좋겠다라는 생각으로 학자가 되고 싶었거든요. 897 01:03:33,820 --> 01:03:43,840 호랑이는 죽어서 가죽을 남기고 사람은 죽어서 이름을 남긴다는 것처럼 제가 만든 이론과 책이 가치 있게 논의될 수 있다면 참 감사하겠다라고 생각했었는데 898 01:03:43,840 --> 01:03:52,300 어느 순간 강의를 통해서 정말 좋은 강의는 그 강의를 듣는 사람들에게는 정말 좋은 강의라고 생각했었거든요. 899 01:03:52,320 --> 01:04:07,920 저는 저는 저희를 놓아여금 마음이 바뀌게 할 수 있고 사회적인 공감대를 일으킬 수도 있고 우물에 떨어뜨린 작은 조약돌처럼 1파 만파 논의가 확장될 수 있는 힘을 가지고 있다는 걸 알게 됐어요. 900 01:04:08,220 --> 01:04:19,940 그래서 학자가 아닌 강사의 삶을 선택해서 좋은 분들이 기다려주고 계실 때 좋은 강의로 삶의 변화를 줄 수 있으면 좋겠다. 901 01:04:19,940 --> 01:04:22,140 저의 모든 얘기를 공감하거나 좋아하고요. 902 01:04:22,320 --> 01:04:32,840 더 하시지 않으셔도 그 얘기 중에 한 마디라도 오늘 한 시간에 함께했던 시간들이 기억에 남으시면 그것도 영광이겠다는 생각으로 이렇게 강사의 길을 선택하게 되었습니다. 903 01:04:32,840 --> 01:04:35,840 물론 자본주의도 달콤했습니다. 904 01:04:38,000 --> 01:04:40,120 다음 질문도 있으실까요? 905 01:04:40,120 --> 01:04:42,980 네, 질문 마지막으로 한 번. 906 01:04:42,980 --> 01:04:56,640 제가 사실 들으면서 굉장히 궁금했던 점이 인간성에 대해서는 사실 저희는 정의하거나 합의하지 않았어요. 907 01:04:56,640 --> 01:05:04,920 우리 생활의 경험을 보셨잖아요. 거기에 대한 댓글도 보셨잖아요. 댓글로 얼마나 좋은지 알 수 있겠잖아요. 908 01:05:04,920 --> 01:05:06,760 그 중에 다 인간인 것 같아요. 909 01:05:07,680 --> 01:05:12,840 그래서 사실 거의 많이 들은 인간성에 대해서는 수월한 것 같아요. 910 01:05:12,980 --> 01:05:24,980 말씀하신 것처럼 둘 다 인간이고 둘 다 인간성인데 도대체 그러면 우리 AI 시기에 추구해야 되는 게 인간성이라든가 도대체 뭐가 되어야 되는지 더욱더 궁금하다고 생각합니다. 911 01:05:26,980 --> 01:05:30,980 여러분은 언제까지 살고 싶으세요? 912 01:05:30,980 --> 01:05:32,980 저는 120세까지요. 913 01:05:34,980 --> 01:05:38,980 그 질문에 답을 하면서 제가 이런 말씀을 드리는 이유가 있어요. 914 01:05:38,980 --> 01:05:42,980 저는 어릴 때 태어나서 우리가 죽을 때까지 살고 싶어요. 915 01:05:42,980 --> 01:05:46,980 우리의 정신과 영혼이라는 게 성장해 간다고 생각합니다. 916 01:05:46,980 --> 01:05:56,980 어릴 때 저는 오직 경쟁에서 이기는 것만 생각했지만 죽도록 아프고 난 이후에는 더 건강하고 함께 잘 사는 것에 대한 고민을 하게 되었습니다. 917 01:05:56,980 --> 01:06:10,980 20대의 저의 강의는 학생들에게 독해져야 된다면서 하루 7시간 수험생이 잠을 자는 건 죄악이라면서 독해져야 되고 살을 빼고 싶으면 밥을 그만 먹고 잠을 줄이고 싶으면 술을 마시고. 918 01:06:10,980 --> 01:06:16,980 잠을 줄이고 싶으면 그만 자라고 얘기하는 표독스러운 강의를 하고 있었어요. 919 01:06:16,980 --> 01:06:20,980 하지만 살아가면서 저의 강의 내용이 바뀌었습니다. 920 01:06:20,980 --> 01:06:30,980 행복하기 위해 하는 공부 나에게 좋은 걸 베풀어 주기 위해 하는 공부인데 푹 자고 맑은 정신으로 해도 충분히 잘할 수 있다고. 921 01:06:30,980 --> 01:06:38,980 맛있는 걸 꼭꼭 씹어 먹는 것만큼 행복한 것은 없으니 자기에게 선물 주듯 건강한 음식을 잘 먹여주라고 얘기하면서 저는 한 단계 더 성장한 강의를 하고 있습니다. 922 01:06:38,980 --> 01:06:40,980 저는 한 단계 더 성장한 강의를 하고 있습니다. 923 01:06:40,980 --> 01:06:54,980 물론 독함과 독기만을 강조하던 강의보다는 훨씬 더 느리고 자기를 사랑해주라는 강의를 진행하지만 그것 역시 저에게는 또 다른 깨달음의 과정이었습니다. 924 01:06:54,980 --> 01:07:08,980 저는 살면서 인생이 겸손에 대한 긴 학습과정이라는 생각을 많이 해봤는데 점점 더 많은 것들을 하나하나 배우게 되는 그 놀라운 과정들이 너무 짧게 끝나지 않았으면 좋겠다라는 생각을 했어요. 925 01:07:08,980 --> 01:07:10,980 너무 짧게 끝나지 않았으면 좋겠다라는 생각을 했어요. 926 01:07:10,980 --> 01:07:16,980 나이런 얘기를 하는 이유는 저의 육신은 비록 늙어가고 머리는 하얘져가고 눈은 점점 침침해져가고 몸을 가누기 힘든 노화가 올지도 모르지만 927 01:07:16,980 --> 01:07:24,980 PIRI TOK sought to create? 928 01:07:24,980 --> 01:07:34,980 그 노화의 과정에서 비록 육신은 약해지고 남들이 보기에 힘이 없고 약해 보인다 할지라도 그 안에 있는 빛나는 정신은 계속 성장해 간다는 생각이 들었어요. 929 01:07:34,980 --> 01:07:38,980 PIRI TOK sought to create? 930 01:07:38,980 --> 01:07:41,820 정신을 들여다보면서부터 온다고 생각합니다. 931 01:07:42,460 --> 01:07:45,620 나의 정신이 어딜 향해 가고 있고 무엇을 추구하고 932 01:07:45,620 --> 01:07:50,160 이 세상에 태어나서 어떤 것을 얻고 저 세상으로 갈 것인가. 933 01:07:50,900 --> 01:07:54,380 우리 누구도 죽어본 적이 없기 때문에 죽음에 대해 논의하는 건 934 01:07:54,380 --> 01:07:58,260 철학자들의 책 속에서만 가능성으로 생각을 하게 됩니다. 935 01:07:59,000 --> 01:08:03,980 하지만 제가 죽음의 고비 속에서 정말 일주일 후 죽을지도 모른다라는 936 01:08:03,980 --> 01:08:07,580 그런 절체절명의 죽음의 고비를 넘기면서 느꼈던 것이 있어요. 937 01:08:08,980 --> 01:08:15,440 여러분, 언제 죽어서 내가 더 이상 이 세상에 존재하지 않는다 할지라도 938 01:08:15,440 --> 01:08:22,380 살아있을 때 진짜 내가 무엇을 하고 싶으며 남은 기간 동안 나에게 무엇을 주고 싶은지 939 01:08:22,380 --> 01:08:27,900 나는 어떤 사람과 함께하고 싶고 남은 인생을 무슨 내용으로 치우고 싶고 940 01:08:27,900 --> 01:08:33,300 어떤 것을 선호하며 누구와 어떤 얘기를 나누고 싶은지를 결정하는 것부터 941 01:08:33,300 --> 01:08:35,760 자기를 알아가는 과정이라는 생각이 들었습니다. 942 01:08:35,760 --> 01:08:38,960 여러분, 요즘 휴대폰에 한 5분 정도는 943 01:08:38,960 --> 01:08:42,540 5분만, 잠깐 쉬려고 5분만 영상 봐야지 하고 944 01:08:42,540 --> 01:08:47,740 2시간, 3시간씩 유튜브 알고리즘에 쇼츠에 갇혀있는 경우 많이 경험하셨죠? 945 01:08:49,000 --> 01:08:50,340 부탁이 있습니다. 946 01:08:51,600 --> 01:08:54,140 여러분, 언제 마지막으로 서점 가셨습니까? 947 01:08:55,500 --> 01:09:00,980 요즘은 인터넷으로 뜯다 클릭 한 번으로 책을 시키고 바로 평 날라오는 시대를 살아가고 있지만 948 01:09:00,980 --> 01:09:05,780 자녀들의 손을 잡고 또는 본인이 하루 지친 날 949 01:09:06,280 --> 01:09:08,780 평생 동안 나의 정신을 950 01:09:08,960 --> 01:09:14,160 대변할 수 있는 가장 나라는 사람을 대표할 수 있는 책을 951 01:09:14,160 --> 01:09:18,160 어떻게 이사를 다니고 어떻게 이직을 하고 어떻게 은퇴를 하더라도 952 01:09:18,160 --> 01:09:23,740 변치 않는 나를 대표할 수 있는 책 3권을 내 책장에 꽂을 걸 찾으라고 할 때 953 01:09:23,740 --> 01:09:31,100 여러분들은 부동산 경매 어렵지 않아요 경매투자로 고수되는 법을 고르실 건가요? 954 01:09:31,100 --> 01:09:35,400 미 국채 현명하게 투자하세요 를 고르실 건가요? 955 01:09:37,400 --> 01:09:38,940 인간성이라는 단어는 956 01:09:38,960 --> 01:09:42,240 매우 넓은 단어이지만 제가 사용하는 인간성은 957 01:09:42,240 --> 01:09:50,060 그냥 알고리즘의 노예처럼 이끌려 다니다가 남들의 시선에 대강 타협하면서 맞추면서 살아가서 958 01:09:50,060 --> 01:09:54,920 적당히 이 정도면 잘 살았지라고 세상의 시선에 눈치 보면서 살아가는 것이 아니라 959 01:09:54,920 --> 01:09:58,180 진짜 나를 찾는 것부터 시작된다고 생각합니다. 960 01:09:59,020 --> 01:10:02,100 내가 뭘 원하고 어떤 내용으로 나를 채우고 싶은지 961 01:10:02,100 --> 01:10:06,960 내가 죽을 때까지 후회 없이 이런 장면들이 나에게 중요했느라 962 01:10:06,960 --> 01:10:08,940 할 수 있는 장면들로 나를 채우고 싶은지 963 01:10:08,960 --> 01:10:10,960 내가 죽을 때까지 후회 없이 이런 장면들을 채워나가는 것 964 01:10:10,960 --> 01:10:14,960 부끄럽지만 저도 유튜브 참 재미있거든요 저도 유튜버예요 965 01:10:14,960 --> 01:10:19,960 근데 매년 저도 일기를 씁니다 966 01:10:19,960 --> 01:10:21,960 올해는 알고리즘의 노예가 되지 말자 967 01:10:21,960 --> 01:10:25,960 올해는 내가 직접 궁금해서 검색한 키워드를 제외하고 968 01:10:25,960 --> 01:10:30,960 자동 알고리즘이 추천하는 영상들에 너무 많이 휘둘리지 말자 969 01:10:30,960 --> 01:10:35,960 참 어려운 일이지만 저는 알고리즘에 이리저리 휘둘려 다니면서 재밌는 걸 볼 때 가끔 생각합니다. 970 01:10:35,960 --> 01:10:36,960 참 어려운 일이지만 저는 알고리즘에 이리저리 휘둘려 다니면서 재밌는 걸 볼 때 가끔 생각합니다. 971 01:10:36,960 --> 01:10:37,960 참 어려운 일이지만 저는 알고리즘에 이리저리 휘둘려 다니면서 재밌는 걸 볼 때 가끔 생각합니다. 972 01:10:37,960 --> 01:10:39,960 참 어려운 일이지만 저는 알고리즘에 이리저리 휘둘려 다니� Może 973 01:10:39,960 --> 01:10:42,960 오늘 나의 이 낭비해 버린 한 시간이 내 인생을 보다 더 숭고한 영혼으로 만들기 위해 974 01:10:42,960 --> 01:10:44,960 오늘 나의 이 낭비해 버린 한 시간이 내 인생을 보다 더 숭고한 영혼으로 만들기 위해 975 01:10:44,960 --> 01:10:45,960 오늘 나의 이 낭비해 버린 한 시간이 내 인생을 보다 더 숭고한 영혼으로 만들기 위해 976 01:10:45,960 --> 01:10:47,960 어떻게 기여했지라고 생각해 보면 아쉬울 때가 많아요 977 01:10:47,960 --> 01:10:49,960 어떻게 기여했지라고 생각해 보면 아쉬울 때가 많아요 978 01:10:49,960 --> 01:10:52,960 그럴 때 저는 아날로그 노트를 펴들고 아날로그 만년필을 하나 들고 979 01:10:52,960 --> 01:10:53,960 그럴 때 저는 아날로그 노트를 펴들고 아날로그 만년필을 하나 들고 980 01:10:53,960 --> 01:10:58,200 아날로그 만년필을 하나 들고 내가 살아가는 이유가 무엇일까? 981 01:10:58,320 --> 01:11:01,560 나는 무엇을 꿈꾸는가? 무엇을 이루고 싶은가에 대해서 글을 씁니다. 982 01:11:02,300 --> 01:11:04,380 저는 인간의 본질은 이것이라고 생각합니다. 983 01:11:05,400 --> 01:11:10,940 주체적으로 내가 원하는 걸 찾아 나가는 것, 그것부터 정신의 성장, 영혼의 성장이라고 생각해요. 984 01:11:12,400 --> 01:11:19,620 정답은 아니지만 여러분들이 올해가 가기 전에 내 인생에 평생을 함께하고 싶은 나를 대변하는, 985 01:11:19,620 --> 01:11:24,380 내 영혼을 채우고 싶은 대표책 3권을 선물해 주시는 것부터, 986 01:11:25,160 --> 01:11:33,640 나의 10년 후에 일기를 쓰면서 아날로그 감성으로 내가 이루고 싶은 것들, 내가 꿈꾸는 것들을 써나가고, 987 01:11:34,040 --> 01:11:43,580 10년 후에 나에게 잘 살고 있는지 물어봐주는 것, 그리고 10년 후에 그 노트를 펴보면서 여러분들의 삶의 성숙도를 보는 것, 988 01:11:44,040 --> 01:11:47,220 저는 이것부터 인간성의 시작이라는 얘기를 좀 하고 싶어요. 989 01:11:47,220 --> 01:11:49,220 제가 강의를 다니면서 항상, 990 01:11:49,620 --> 01:11:59,420 하는 것, 자기 자신의 주인이 되는 것부터 우리는 알고리즘의 노예로 전락하지 않을 수 있다가 제가 하고 싶은 사실 진짜 얘기였습니다. 991 01:12:19,620 --> 01:12:23,380 우리 부모님이 준비한 우리의 특강 시기제를 마치도록 하겠습니다. 992 01:12:23,380 --> 01:12:27,380 다시 한 번 강의를 들어봐 주시기 감사드립니다. 감사합니다. 993 01:12:49,620 --> 01:13:19,600 한글자막 by 한효정 994 01:13:19,620 --> 01:13:20,080 한글자막 by 한효정