영화 <마이너리티 리포트>에서 톰 크루즈는 공중에 떠 있는 홀로그램 화면을 손짓으로 조작합니다. 당시에는 미래적 판타지로 보였던 이 장면이 오늘날에는 일상이 되었습니다. 하지만 정작 그 기술이 필요했던 사람들—터치스크린을 볼 수 없는 시각장애인들—에게는 여전히 벽으로 남아있었습니다. 그런데 역설적으로, 이 장벽을 뛰어넘기 위한 시도들이 기술과 인간의 관계에 대한 새로운 사유를 열어주고 있습니다. 혁신은 단순히 불편함을 해결하는 것을 넘어, 우리가 세상을 이해하고 경험하는 방식 자체를 확장시키는 데 있습니다.
이번 호에서는 시각장애인 교사 김헌용 님의 기술 경험을 통해 진정한 혁신이 무엇인지 탐구합니다. 그의 이야기는 기술이 단순히 '문제를 해결하는 도구'를 넘어 '새로운 관계를 만드는 매개'가 될 때 비로소 사회를 변화시킬 수 있음을 보여줍니다. 분리되어 있던 두 세계가 웹이라는 공간에서 만나고, AI 시대에 접어들며 더욱 통합되어가는 과정은 단지 한 개인의 경험이 아닙니다. 이는 모든 사회혁신가들이 주목해야 할 '포용적 기술'의 미래를 미리 보여주는 나침반과 같습니다.
맹학교에서 12년, 대학에서 특수교육을 4년 공부한 뒤 일반 중학교 영어 교사가 되었습니다. 시각장애인으로 살아온 삶과 교사로서 살아갈 삶이 교차하는 지점에서 제 경력은 시작되었습니다. 초임 시절 저를 사로잡은 열망은 단 하나, ‘보통의 교사’가 되는 것이었습니다. ‘시각장애인 교사’라는 수식어 대신, 그저 학생들을 가르치고 동료와 협력하는 평범한 교사로 인정받고 싶었습니다. 그 간절함이 저를 끊임없이 채찍질하는 동력이었습니다.
돌이켜보면 제 삶은 이미 두 세계의 정보를 엮는 데 익숙했습니다. 학창 시절 제 세상은 온통 소리로 채워져 있었습니다. EBS 라디오 교육 방송으로 영어를 익혔고, BBC 라디오로 축구 중계를 들었으며, 해리포터 오디오북을 들으며 마법 세계를 상상했습니다. 눈이 아닌 귀로 정보를 얻고 세상을 이해하는 일은 제게 숨 쉬는 것처럼 자연스러웠습니다. 소리는 단순히 결핍을 메우는 대체 수단이 아니었습니다. 정보의 간극을 메우고 서로 다른 형태의 정보를 머릿속에서 재구성하는 과정에서, 저도 모르는 사이 저만의 상상력이 단련되고 있었습니다. 하나의 감각으로 얻은 정보를 다른 차원의 세계로 번역하고 통합하는 작업. 그것은 기술(테크놀로지)이 삶에 깊숙이 들어오기 전부터 이미 제 안에 자리 잡은 생존 방식이자 사유의 틀이었습니다.
하지만 교직에 들어서 마주한 기술은 제가 단련해 온 정보의 번역·통합 능력에 힘이 되어주지 못했습니다. 오히려 제 삶을 두 개의 평행선으로 나누는 경계선 역할을 했습니다. 제 앞에는 뚜렷하게 갈라진 두 개의 기술이 놓여 있었습니다.
하나는 교사로서 마땅히 다뤄야 할 행정 시스템의 기술이었습니다. 교육행정정보시스템(NEIS)이나 K-에듀파인 같은 프로그램들은 ‘보이는 세상’의 규칙으로 작동했습니다. 모든 정보는 시각적 인터페이스 위에 배열되어 있었고, 동료 교사들은 마우스 클릭 몇 번으로 손쉽게 업무를 처리했습니다. 그 인터페이스는 학교라는 조직의 공식 언어였고, 그것에 익숙해지는 일은 보통의 교사가 되기 위해 반드시 통과해야 할 관문이었습니다.
다른 하나는 시각장애인으로서 필수 도구로 익혀 온 보조공학기기의 기술이었습니다. 점자정보단말기인 ‘한소네’나 화면의 텍스트를 음성으로 읽어주는 스크린리더 ‘센스리더’ 같은, 저에게만 필요한 도구들이었습니다. 이들은 ‘들을 수 있는 기술’로서, 보이지 않는 세계와 보이는 세계를 잇는 유일한 다리였습니다. 하지만 이 두 기술의 축은 결코 만나지 않았습니다. 저는 행정 시스템이라는 시각 중심의 세계에 진입하기 위해, 보조 기술이라는 청각 중심의 세계를 별도로 조작해야 했습니다.
이 분리된 시스템은 제 일상에 보이지 않는 마찰을 일으켰습니다. 동료 교사가 한 번의 클릭으로 끝낼 업무를 위해, 저는 스크린리더가 화면 구조를 읽어주는 소리에 집중하며 수많은 키보드 명령어를 조합해야 했습니다. 특히 공공기관과 교육 현장에서 여전히 표준으로 쓰이는 한글(HWP) 문서 작업은 그 자체로 거대한 장벽이었습니다. 표와 서식으로 복잡하게 얽힌 문서는 스크린리더가 구조를 제대로 읽어내지 못했고, 결국 내용을 메모장에 옮겨 작성한 뒤 다시 붙여 넣는 비효율적인 과정을 반복해야 했습니다.
이 비효율은 단순히 시간이 더 걸리는 문제가 아니었습니다. 두 시스템의 다른 논리를 머릿속에서 끊임없이 번역하고 중개하느라 막대한 인지적 에너지를 소모해야 했습니다. 이른바 ‘비호환성의 대가’를 매일 톡톡히 치르는 셈이었습니다. 기술은 분명 가장 강력한 아군이었지만, 동시에 매일 넘어야 할 또 하나의 견고한 벽이었습니다.
그렇게 견고해 보였던 기술의 벽에 균열이 가기 시작한 것은 역설적으로 세계가 단절을 경험했던 팬데믹 시기였습니다. 수업과 행정의 중심이 기존의 폐쇄적인 설치형 소프트웨어에서 개방적인 웹 기반 플랫폼으로 급격히 이동하면서, 제 일상에도 극적인 변화가 찾아왔습니다.
Zoom, Google Workspace, Google 클래스룸 같은 도구들은 이전의 행정 시스템과 근본적으로 다른 토대 위에 서 있었습니다. 특정 컴퓨터에 종속되지 않고 ‘웹’이라는 공용의 공간에서 작동했기 때문입니다. 바로 이 지점에서 모든 것이 달라졌습니다. 웹이라는 공간은 국제적인 표준과 규범이 작동하는 곳이었기에, 다양한 기술로 만들어진 서비스라 할지라도 웹 접근성 지침을 준수하며 개발되었습니다. 그 덕분에 스크린리더와 같은 보조 기술과의 호환성이 월등히 뛰어났고, 저는 비로소 장벽 없이 이 도구들을 자유롭게 활용할 수 있었습니다.
팬데믹 초기, EBS 온라인 클래스, 네이버밴드와 같은 여러 국내 플랫폼이 온라인 교실의 주도권을 잡기 위해 각축을 벌였지만, 승기는 금세 Google 클래스룸으로 기울었습니다. 이는 단순히 기능의 우수성 때문만은 아니었습니다. 다수의 국내 서비스들은 출석 관리나 알림장 작성 같은 세부적 기능 구현에만 급급했을 뿐, 그 기반이 되는 ‘웹’이라는 공간의 보편적 규범인 접근성을 간과했습니다. 반면 Google의 도구들은 처음부터 웹 표준과 보편적 설계라는 철학 위에서 만들어졌기에, 뛰어난 접근성을 바탕으로 장애 학생을 포함한 교실의 모든 구성원을 자연스럽게 포용할 수 있었습니다.
이렇게 웹 표준을 기반으로 한 도구의 등장은 제게 ‘보이는 세상의 기술’과 ‘들을 수 있는 기술’이 마침내 하나의 접점에서 만나는 감격스러운 순간을 선사했습니다. 더 이상 두 개의 분리된 시스템을 오가며 고된 번역 작업을 할 필요가 없어졌습니다. 스크린리더라는 익숙한 도구를 통해, 모든 교사들이 사용하는 바로 그 업무 플랫폼에 동등하게 접근할 수 있게 된 것입니다. 기술을 ‘장애인용’과 ‘비장애인용’으로 구분하던 낡은 경계가 허물어지기 시작했습니다. 기술은 더 이상 특정 집단을 위한 특별한 배려가 아닌, 모두를 위한 보편적 설계(Universal Design)라는 더 큰 흐름으로 나아가고 있었습니다.
웹 플랫폼이 열어준 통합의 경험은 인공지능(AI) 시대를 맞아 더욱 가속화되고 있습니다. 이제 기술은 단순히 정보를 연결하는 것을 넘어, 저의 인지적, 감각적, 사회적 경험을 다채롭게 증강시키는 파트너가 되었습니다. 하지만 이 과정에서 저는 기술의 무한한 가능성만큼이나 명백한 한계 또한 마주하며, 인간과 기술의 바람직한 관계를 다시금 생각하게 되었습니다.
Google의 Gemini 같은 생성형 AI는 저의 인지적 부담을 획기적으로 덜어주었습니다. 수업 자료 준비, 긴 문서 요약, 이메일 초안 작성, 회의록 정리 같은 일들이 하나의 대화형 인터페이스 안에서 유기적으로 이루어집니다. 저는 이제 장애나 교육 관련 정책 자료를 분석할 때 Gemini의 긴 컨텍스트 처리 능력을 활용하고, 노동조합 성명서를 쓸 때는 Claude의 작문 실력에 초안을 맡기며, 수업에 필요한 최신 현안을 파악할 때는 Perplexity의 검색 증강 생성 기술을 사용합니다. 각기 다른 강점을 지닌 AI들을 엮어 저만의 작업 흐름을 만들어 낸 것입니다. 과거, 주류 기술과 보조 기술이라는 분절된 프로그램을 오가며 길을 잃고 헤매던 때를 생각하면 복잡한 작업들이 AI와의 대화 몇 마디로 해결되는 지금의 통합된 경험은 놀랍기만 합니다. AI는 저의 인지적 조수가 되어, 제가 더 본질적인 ‘콘텐츠’에 집중하도록 돕습니다.
반면, 기술이 인간을 대체할 수 없는 영역은 (적어도 아직까지는) 뚜렷합니다. 시각장애인을 위해 원격으로 세상을 묘사해주는 자원봉사자 기반 앱 ‘Be My Eyes’는 2023년 초, 생성형 AI를 활용한 이미지 인식 기술을 도입했습니다. 이어 2024년 말 챗GPT는 실시간으로 영상 통화를 할 수 있는 영상 스트리밍 기능이 탑재되었습니다. 이제 AI는 사진 속 사물을 놀라울 정도로 정확하게 묘사하고, 찰나에 흘러간 장면에 대해서도 다양한 수사를 곁들여 설명할 수 있습니다. 하지만 저는 여전히 중요한 순간에는 인간 봉사자의 도움을 청합니다. AI의 시각적 인식 능력이 완벽하지 않다는 기술적 한계도 있지만, 그보다 더 근본적인 문제는 AI가 자신의 답변에 책임을 지지 않는다는 점입니다.
한 번은 도시가스 계량기의 검침값을 챗GPT의 실시간 영상 스트리밍 기능으로 확인한 적이 있습니다. 카메라 각도를 여러 번 바꿔가며 질문했지만 AI는 확신에 찬 목소리로 ‘957’이라는 숫자를 반복해서 알려주었습니다. 심지어 처음에는 “조명이 어두워 잘 안 보이는데, 불을 켜 주시겠어요?”라고 먼저 요청하며 신뢰를 심어 주었습니다. AI를 믿고 검침 값을 입력했지만, 찝찝한 마음에 아내에게 확인을 부탁했습니다. 답변은 전혀 다른 숫자인 ‘517’이었습니다. 아날로그 계량기의 숫자가 넘어가며 다음 숫자의 윗부분이 살짝 보인 것을 AI가 잘못 인식한 탓이었습니다. 단순한 오인식으로 치부할 수도 있지만, 제게는 작은 배신감으로 다가왔습니다. 만약 인간 봉사자였다면 아마 “숫자가 넘어가는 경계에 있어 정확하지 않은데, 다시 한번 확인해볼까요?”라고 되물었을 겁니다. 자신의 답변이 상대에게 미칠 영향을 고려하고 책임져야 함을 알기 때문입니다. 그러나 AI는 확률에 기반해 그럴듯한 답을 생성할 뿐, 그 답에 대한 책임감이나 상황의 중요성을 이해하지 못합니다. 성능이 지금보다 수십 배 좋아진다고 하더라도 이 책임 공백의 문제가 해결되지 않는다면 인간이 기술을 온전히 신뢰하는 일은 끝내 불가능할지도 모릅니다.
그렇다고 기술에 대한 기대를 거둘 필요는 없습니다. 오히려 인간의 자리를 명확히 할 때, 기술이 지닌 또 다른 가능성이 선명해집니다. 저는 다시 제 삶의 출발점이었던 ‘소리’의 세계로 돌아왔습니다. 과거 오디오 콘텐츠의 수동적인 소비자였던 저는, 이제 AI 기반 음성 인터페이스를 자유자재로 활용하는 능동적인 사용자가 되었습니다. 챗GPT의 음성 대화 모드로 육아와 건강 팁을 빠르게 찾고, 스피치파이(Speechify) 앱의 자연스러운 음성으로 이메일이나 긴 기사를 편안하게 듣습니다. 일레븐랩스(ElevenLabs)의 최첨단 음성 합성 기술을 활용해 블로그에 올릴 글에 감성적인 음성 내레이션을 입히고, Google NotebookLM의 놀라운 팟캐스트 생성 능력을 이용해 수백 페이지의 실태조사 보고서를 두 진행자의 흥미로운 대화로 감상합니다. 이렇듯 음성 합성 및 인식 기술은 더 이상 접근성을 위한 도구에 머무르지 않습니다. AI 스피커나 음성 비서처럼 개인의 취향과 편의를 위한 보편적 인터페이스로 확장되었습니다. 저는 이제, 보지 않고도 세계를 듣고, 느끼고, 즐길 수 있는 ‘다중 감각 번역기’를 갖게 되었습니다. 기술은 제 감각의 한계를 넘어 세상을 경험하는 새로운 방식을 열어주었습니다.