오후에 동료들과 회의가 있었다. 요즘 진행하는 프로젝트에서 우리가 해야할 것들이 무엇이고, 그것을 해나가기 위해서 어떤 기술들이 필요한지 구체적으로 조사했다. 먼저 어느정도 각자 조사하고, 회의를 통해, 구체화하고 다듬었다. 기술의 발달 속도가 점점 빨라지고 있는 요즘, 나는 '모든 기술을 다 알아보자'고 생각하지 않는다. 대신 내가 회사에서 해결해야 하는 문제가 무엇일까? 문제를 해결하기 위해, 차근차근 관련된 기술을 찾아보기 위한 노력을 하고 있다.
예전에 대학원에서도 문제 중심의 사고를 줄곧 해왔다. 대학원에 입학하고, 나만의 '연구 주제'를 할당 받았다. 연구 주제 안에서 해결해야 할 문제를 찾았다. 돌이켜보면, 내가 컴퓨터공학과 인공지능을 전공하고 직업인으로서 살아오면서 늘 가져야 했던, 태도는 해결해야 하는 문제는 무엇인지? 어떻게 문제를 해결할 것인가? 였다. 특히, 인공지능 분야에는 '특정 문제를 풀어봐라' 하는 대회들이 있었는데, 참여자들은 각자 연구한 방법으로 문제를 풀어서, 마치 시험 점수를 공유하듯, 성능을 공유했다. 그런 대회들 중 하나가 이미지를 식별해서 어떤 이미지인지 알아내는 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)이다. 인공지능이 강아지 사진을 보고 강아지인지, 고양이인지 판단하도록 학습하고 테스트하는 대회이다.
이 대회에서, 2012년에 딥러닝 기반의 AlexNet이 압도적인 성능으로 우승해서 주목을 받았다. (알렉스(Alex)는 토론토 대학교 대학원생이고, 제프리 힌튼이 지도교수였다) 이때부터 본격적으로 딥러닝이 주목을 받았던 것으로 기억한다. 기술은 이처럼 명확한 결과물을 낼 때, 주목을 받을 수 있는 것 같다. 연구는 오랜 시간 지속되었는데 말이다. 이 때, 사용된 알고리즘은 CNN(Convolution Neural Network)인데, CNN은 인간이 이미지를 인식하는 프로세스를 본따서, 딥러닝 기반으로 구성된 모델이다. 이미지를 보고 스캔하면서, 각 영역별 특징들을 추출해내고, 그것들을 합쳐서 이미지를 인식하는 것이다. 우리가 강아지 사진을 볼 때, 픽셀을 하나하나 보는 것이 아니라, 강아지의 특징을 보고 강아지라고 생각할 수 있는 것처럼 말이다.
|
|
|
한 기술이 어떤 분야에서 압도적으로 높은 성능을 냈다고 하면, 다른 분야의 사람들도 관심을 갖기 마련이다. 혹시 내가 연구하는 분야에 적용할 수 있지 않을까 하는 기대감이 생기는 것은 자연스러운 일이다. 자연어를 이해할 수 있도록 언어 모델을 만드는 사람들은 딥러닝 기반의 RNN(Recurrent Neural Network)모델을 연구하고 사용하기 시작했다. CNN이 인간의 시각 정보 처리 능력을 모방했다면, RNN은 우리가 언어를 이해하는 방식을 모방했다. 이전 단어들인 문맥을 이해하고, 기억한 것을 바탕으로 현재 단어를 해석하는 것이다. 언어를 이해하기 위해서는 늘 문맥이 핵심적이다. (통계적 언어모델에서도 그랬듯이) 이처럼, 현대의 인공지능은 인간이 시각, 언어 등의 정보를 처리하는 능력의 본질을 파악하고, 모방해서 만들어졌다.
CNN과 RNN 이후에도 연구자들은 끊임없이 한계점을 돌파하기 위해 고민했다. 오래 전부터 인공지능이 대중화된 오늘날에 이르기까지 딥러닝 발달의 역사는 결국 문제점을 찾고 해결하려는 땀방울의 역사라고 해도 과언이 아닐 것이다. RNN이라는 기술에서도 사람들은 문제점을 찾았다. RNN의 문제는 문장이 길어질 수록, 앞부분에 나왔던 단어의 정보가 점차 희미해진다는 점인데, 이를 장기 의존성 문제(long term dependency problem)이라고 한다. 이 문제를 해결하기 위해, 나온 것이 LSTM(Long short term memory)기술이다. 메모리 셀을 추가해서, 오래전 입력도 기억할 수 있도록 하는 것이다.
하지만, 기본적으로 RNN과 LSTM은 이전에서 다음으로 순차적으로 계산하는 모델이기 때문에, 병렬처리가 어렵고, 문장이 더 길어지면 앞 쪽 정보가 소실되는 문제를 근본적으로 해결하기는 어렵다. 이런 기존 구조의 문제점을 해결하기 위해, 2017년 구글에서 트랜스포머(Transformer)라는 새로운 구조를 내놓았다. (논문 제목: Attention is All you need, 기념비적인 논문이다) 트랜스포머 모델을 통해, 기계 번역 성능이 향상됐다는 결과를 논문에 실어 효과를 입증했다. 트랜스포머는 Self attention을 사용해서, 문장 전체를 보고, 어떤 단어들이 서로 연관성이 큰지를 계산해서, 단어가 멀리 떨어져 있어도 연관성이 높다는 것을 알 수 있는 모델이다.
트랜스포머는 긴 문맥을 이해할 수 있고, 병렬처리가 가능하기 때문에, 오늘날 LLM(Large Language Model, 대용량 언어모델)의 기본 구조가 되었다. 최근, Chat GPT, Claude, Gemini 등의 언어모델 기반 대화 에이전트들이 무척 많이 보인다. 높은 성능을 자랑하는 인공지능들이 상용화고 있지만, LLM이 완벽한 것은 아니다. 연구자들은 여전히 기술의 문제점을 찾고 해결하기 위해 노력하고 있다. LLM이 이상한 답을 최대한 내놓지 않도록 하는 연구, 디바이스에 탑재하기 위해 모델을 경량화하는 연구, 사람이 집단지성을 이용해서 더 좋은 판단을 할 수 있는 것처럼, 여러 모델을 만들어서 문제를 해결할 수 있도록 하는 구조에 대한 연구 등 수많은 연구들이 진행되고 있다.
아마도 연구는 계속될 것이고, 기술의 발달은 가속화될 것이다. 하지만, 어찌 보면 인공지능은 결국 인간을 모사한 연산장치이다. 두려워하기보다는 인공지능을 잘 활용하는 것이 중요하다. 인간이 창출해낸 방대한 컨텐츠를 학습하고, 문맥을 이해하는 인공지능을 "나만의 비서" 처럼 안 쓸 이유가 없다. 휴대할 수 있는 나만의 도서관이자 컨설턴트니까 말이다. 다만 인공지능이 나를 대체하는 것이 싫다면, 나만이 창출할 수 있는 가치에 대한 고민도 해나가야 할 것이다. 그리고 그 가치를 알아가기 위해 "내가 내 삶에서 정말로 해결하고 싶은 문제가 무엇일까?" 라고 스스로에게 물어보는 과정이 도움이 될 거라고 생각한다. 인공지능을 적절히 활용하되, 내 삶을 충실히 잘 살아가고, 고요히 들여다보는 시간이 필요함을 느끼고 있다. (개인적으로는 글쓰기와 기록을 통해 내 삶을 알아가려고 한다) 최첨단 인공지능 기술과 도구를 찾아도 정작 내 삶에서 활용할 곳이 아무것도 없다면 무용지물이지 않을까?
인공지능이 직업의 몇퍼센트를 대체할 것이다 라는 예측이 난무하는 요즘, 초불확실성의 시대를 잘 헤쳐나가 보려는 내 마음은 이렇다. 나는 일단 나를 이원화했다. 인공지능 연구 개발자로서의 모습이다. 나는 동료들과의 협업을 통해, '회사에서 풀어야 할 문제' 에 집중하는 삶을 살 것이다. 머리 싸매고 고민해야 하는 회사 생활이 녹록지 않지만, 개인적으로 함께함으로서 아이디어가 정교해지고, 더 좋아지는 과정을 소중히 여기고 있다. 내가 팀에 소속되어 해왔던 일들을 돌이켜 보면, 도무지 혼자 달성할 수 없는 일이라고 생각한다. 감사할 따름이다. 또 다른 나는 어디에도 속하지 않은 있는 그대로의 내 모습이다. 내 마음대로 방향을 정하는 솔로 플레이를 하며 살아가는 시간도 가지려고 노력한다. 퇴근 후, 회사 밖 내 삶을 그려보는 것이다. 요즘같이 변화가 빠른 시기를 살아가는 한 명의 사람으로서, 내 삶의 중심을 잡고 살아가기 위해, 누군가의 시선에 갇히지 않고, 진정으로 내가 살면서 해결하고 싶은 문제는 무엇인지, 내 속도로 풀어 나가보자는 마음을 잊지 않고 살아가는 시간도 조금씩 가지려고 노력중이다.
|
|
|
* 글쓴이 : 선영
인공지능 자연어처리 분야에서 석사 학위를 취득하고 AI 연구 개발자로 일하고 있습니다. <그 일을 하고 있습니다>를 공저했습니다. 삶에 도움이 되는 인공지능을 개발하기 위해 연구하고 있습니다.
* 사진 출처: LLM Evolutionary Tree https://github.com/Mooler0410/LLMsPracticalGuide
* 오늘 늦게 발송하게 되었네요.^^ 다들 행복한 주말 보내시길 바랍니다! |
|
|
* https://allculture.stibee.com 에서 지금까지 발행된 모든 뉴스레터를 보실 수 있습니다. 콘텐츠를 즐겁게 보시고, 주변에 널리 알려주시면 감사하겠습니다. * '세상의 모든 문화'는 각종 협업, 프로모션, 출간 제의 등 어떠한 형태로의 제안에 열려 있습니다. 관련된 문의는 jiwoowriters@gmail.com (공식메일) 또는 작가별 개인 연락망으로 주시면 됩니다. |
|
|
|