유발 하라리 작가의 기자회견에 참여해 주신 기자분들, 관계자분들 환영합니다. 저는 가천대학교 스타트업칼리지 학장을 맡은 장대익입니다. 저는 진화 심리학자이면서 과학 철학자고요. 오늘 유발 하라리 작가님 기자회견의 사회를 맡게 되었습니다. 반갑습니다. 오늘 주제는 ‘넥서스 : AI와의 공존은 가능한가, AI의 의미와 본질 그리고 미래’입니다. 우리 인류의 큰 질문이죠. ‘AI와의 공존이 가능한가?’라는 질문에 관해 이야기하고, 또 질의응답을 받는 시간을 가지려고 합니다.
여기 많은 분이 오셨는데요. 사실 오늘 이 자리에서 우리가 이런 행사를 하기 어려웠을 수도 있습니다. 다들 짐작하시겠지만, 헌법재판소가 굉장히 가까이 있고 그래서 저희가 여기서 할 수 있을까? 굉장히 고민을 많이 하고 노심초사했는데 다행히 할 수 있게 됐습니다. 한국의 정치적인 상황뿐만 아니라 전 세계적으로도 지금 굉장히 혼란스럽죠. 양극화도 있고, 민주주의 위기 문제도 있고. 그런 가운데 이 《넥서스》라는 책이 그 질문에 답을 하는, 통찰을 주는 책이라고 생각합니다. 오늘 본격적으로 들어가기에 앞서, 유발 하라리 작가님이 《넥서스》를 왜 쓰게 되셨는지, 또 주요한 내용이 무엇인지, 또 어떤 말씀을 하고 싶으신지 간단한 말씀을 듣고 질문 이어가도록 하겠습니다.
유발 하라리
우선, 한국에 다시 오게 되어 기쁩니다. 전에 한국에 두 번 왔었습니다. 더 빨리 오려고 했었는데 코로나가 있었고, 이스라엘에 위기가 있었습니다. 한 번은 이스라엘의 민주주의가 파괴될 수 있는 큰 위기가 있었고, 그다음에는 하마스와 헤즈볼라의 전쟁이 있었죠. 그래서 다시 오는 데에 시간이 좀 걸렸습니다. 또 연구를 하고 책을 쓰는 데 5년이 넘는 꽤 긴 시간이 걸렸습니다.
First of all, it's a pleasure and honor to be here again. I've been in Korea twice before. I planned to come earlier but first it was COVID and then there was the crisis in my own country. First the attempt to destroyed the democratic system in Israel then the war with Hamas and Hezbollah. So it took me some time to come again. It also took me quite a long time to write this book next to more than five years of research and writing.
AI에 대해서 모두가 꼭 알아야 할 것 하나를 꼽으라면, 저는 ‘AI는 우리의 도구가 아니다, AI는 행위 주체자다’라는 걸 꼽겠습니다. 이 책을 짧게 요약하는 건 힘들기 때문에 두 가지만 이야기하겠습니다. 하나는 AI에 대한 것이고, 하나는 인간에 대한 것입니다. 지금까지 인간이 만든 모든 기술적 발명품은 석기 시대의 돌칼부터 인쇄기, 원자폭탄까지 전부 다 도구였습니다. 그걸 가지고 무얼 할지 우리가 결정할 수 있었죠. 칼로 샐러드를 자를지 사람을 죽일지 결정할 수 있습니다. 원자력의 힘으로 전기를 생산할지 전쟁에 쓸지도 우리의 결정에 달려 있었습니다.
And it's difficult to summarize the book briefly so I will say only two things. One about AI, one about human beings. The one important message about AI that I think everybody needs to know is that AI is not a tool. AI is an agent. All previous technological inventions of humanity whether a stone knife, whether the printing press, whether the atom bomb they were tools in our hands. We decided what to do with them. You can decide to use a knife to cut salad or to murder somebody. You can be signed to use nuclear technology to produce electricity or to wage war was always our decision what to do with the technology.
AI는 다릅니다. AI는 스스로 결정하고 새로운 아이디어를 떠올릴 수 있는 것입니다. AI 무기는 무엇을 폭격할지 스스로 결정할 수 있고, 심지어 AI가 완전히 새로운 무기를 발명해낼 수도 있을 것입니다. 그렇기 때문에, AI의 발명은 이전의 어떠한 과학기술 혁명과도 다릅니다. 우리가 예전에 했던 방식으로 AI를 통제할 수 있다고 생각하는 사람은 AI가 무엇인지 이해하고 있지 못한 것입니다. AI가 뭘 할 것이라고 예측을 할 수 있다면, 그건 AI가 아닙니다. 우리가 통제할 수도, 예측할 수도 없는 고도의 지능을 갖춘 수백 만의 행위 주체자를 세상에 풀어놓는다? 이것은 인류가 마주할 큰 도전이 될 것입니다.
AI is different. It is something that can make decisions by itself and can invent new ideas by itself. An AI weapon can decide by itself who to bomb and AI can even invent completely new weapons by itself. Therefore, the invention of AI is a completely different revolution than any previous technological revolution. Anybody who thinks we can control AI the same way we controlled previous tools doesn't understand what AI means. If you can predict what it will do, then it is not an AI. So what will happen when we release millions of highly intelligent agents into the world that we cannot control and predict? This is the big challenge facing humanity.
두 번째로 말씀드릴 것은 인류에 대한 부분입니다. 인류 역사상 어느 때보다도 우리가 협업해야 하는 이때, 전 세계적으로 인간은 서로에 대한 신뢰를 빠르게 상실하고 있습니다. 이 AI라는 문제를 다루기 위해서 협력을 해야 하는 바로 이때 말이죠. 이 AI 혁명의 중심에는 신뢰의 역설이 존재합니다. 제가 세계를 많이 돌아다면서 미국과 유럽, 일본, 한국 그리고 또 중국을 방문했는데요. 여기저기서 AI 혁명을 선도하는 사업가, 과학자, 정치가를 많이 만납니다. 그러면 제가 이 두 가지를 묻습니다.
The second thing I wanted to say briefly is about humanity and the message is that at the moment we need humans to cooperate more than in any previous time in history. We have a global crisis of trust between humans. Humans are losing trust in each other exactly when they need to cooperate to deal with AI. At the heart of the AI revolution there is a paradox of trust. When I travel around the world and I visited the US and Europe and Japan and from Korea to China, I talk with the people who lead the AI Revolution the entrepreneurs, the scientists, the politicians and I asked them two questions.
제가 하는 첫 질문은 “왜 이렇게 서두릅니까?”입니다. 그럼 다들 이렇게 대답을 해요. "우리도 위험한 것을 알고, AI 개발에 좀 더 천천히, 조심스럽게 접근해야 한다는 걸 이해는 합니다. 그런데 경쟁사들을 믿을 수가 없어요. 더 천천히 접근하고, 안전에 더 투자하고, 규제를 더 해도 경쟁사들이 그렇게 하진 않을 거란 말이죠. 그렇게 되면 우린 뒤처질 거예요. 그럼 그들이 이기고 그들이 세계를 통치해 버릴 거란 말이죠. 그러니 더 속도를 내야 합니다."
The first question I asked is why are you moving so fast? And they always reply we understand that it is very risky and that we should move more slowly and carefully in the development of AI. But we cannot trust our human competitors. If we move more slowly, if we invest more in safety, if we have these regulations on AI, and our human competitors don't do the same. They will win the race we will be left behind. They will win the race and they will rule the world because we cannot trust the other humans. We must move faster and faster.
그러면 이제 두 번째 질문을 던집니다. "당신이 개발하고 있는 이런 초지능적 AI를 믿을 수 있다고 생각하세요?" 그럼 조금 전까지 다른 인간은 못 믿겠다고 한 사람들이 “네 그럼요, AI 믿을 수 있습니다.” 이렇게 얘기를 해요. 이게 바로
신뢰의 역설입니다. 같은 인간은 못 믿어요. 그런데 이 지극히 이질적인 지능을 갖춘 AI는 믿을 수 있다고 얘기를 합니다.
Then I asked the second question, do you think you could trust the super intelligent AI's that you're developing and the same people who just told me they can't trust the other humans now tell me yes we think we can trust the AI's. and this is the paradox of trust that people who cannot trust their fellow humans nevertheless think they could trust this alien AI, this alien intelligence.
그래서 우리가 우선 순위를 바꿔야 한다는 말로 마무리하겠습니다. 우리는 초지능 AI를 개발하기 전에 인간 간의 신뢰 문제부터 해결해야 합니다. 인간이 서로를 신뢰하면, 우리는 함께 믿을 수 있는 AI를 만들고 학습시킬 수 있을 것입니다. 그러나 우리가 서로를 믿지 못하고 AI가 경쟁, 불신과 갈등 속에서 태어나게 된다면 인류의 재앙이 될 것입니다.
So I will end by saying that we need to reverse our priorities. We need to first solve the problem of trust between humans before we develop a super intelligent AI. If humans trust each other, we can together create and educate an AI that will be reliable. But if we don't trust each other and AI is born out of competition and distrust and conflict, it will be disastrous for humanity.
장대익
《넥서스》를 다 요약하는 건 어렵지만, 정말 이야기하고 싶은 메시지 두 가지를 말씀하신 것 같아요. 하나는 AI가 도구가 아닌 행위 주체자라는 점이고, 두 번째는 인간을 신뢰하지 못하고 오히려 AI를 신뢰하는 현상이 큰 문제다, 그래서 인간에 대한 신뢰를 먼저 회복해야만 이 문제를 해결할 수 있다고 말씀하신 것 같습니다. 굉장히 예리한 통찰이라고 생각하시는데요.
제가 가벼운 이야기부터 시작해서 여러분들이 질문하실 수 있도록 분위기를 만들어 가고 싶은데요. 제가 유튜브에서 유발 하라리 작가님의 영상을 봤을 때, 《사피엔스》라는 책을 내시고는 빅 테크 컴퍼니의 오너들, CEO들과 인터뷰도 많이 하시고 산업에 관해서도 얘기하시고 되게 또 관계가 좋았던 것 같아요.
근데 《넥서스》를 내주고는 어떤 느낌이냐면 이제 더이상 빅테크 컴퍼니들이 하라리 선생님하고 얘기하는 걸 좀 원하지 않는 게 아닌가, 뭐랄까요? 명확한 반대를 하고 있으신 것 같다는 생각을 하는지, 뭔가 긴장이 있어 보이거든요. 《사피엔스》를 쓰고 나서의 빅테크 기업들과의 관계하고는 좀 다른 것 같습니다.
그동안 《사피엔스》 《호모데우스》 《21세기를 위한 21가지 제언》, 이번 《넥서스》까지 책을 내고 인류와 AI 혁명을 보면서 처음에 기대했던 것과 뭔가 좀 다른 게 있는지, 다시 말해 처음 《사피엔스》라는 책을 썼을 때 ‘이렇게 갈 거야’라는 것보다 더 우려스러운 상황이신지, 그래서 《넥서스》에서 하고 싶은 얘기는 새로운 부분이 있는지를 먼저 여쭙고 시작하겠습니다.
유발 하라리 사실 저는 제 책이 이렇게 성공하리라는 것을 전혀 예상치 못했습니다. 원래 제 전공이 유럽 중세 군대사예요. 그러므로 10년, 15년 후에 제가 여기서 이렇게 이런 자리에서 AI나 인류의 미래를 이야기하는 건 저한테도 굉장히 놀라운 일입니다. 그렇지만 여전히 (지금 일과 내 전공 사이에) 강한 연관성이 있다고 생각하는데요, 왜냐면 저에게 역사는 과거를 공부하는 게 아니기 때문입니다. 역사는 변화를 공부하는 학문입니다. 역사학자들은 천년 전에 어떤 왕이 어떤 전쟁에서 이겼는지를 기억하려고 하는 것이 아닙니다. 그들은 세상이 변화하는 과정을 이해하려고 하거든요. 그렇기 때문에 지금 인류가 아마도 역사상 가장 큰 변화를 맞닥뜨린 이 지금 시점에굉장히 중요하다고 봅니다.
Well, I didn't expect the success of my books and originally I’m specialist in medieval military history, the military history of Europe in the Middle Ages. This is my original field of expertise. So it's very surprising to find myself here like 10, 15 years later talking about AI and cyberwalks and the future of humanity. But I think there is a strong connection because for me, history is not the study of the past. History is the study of change of how things change. Historians don't just try to remember which king won which battle in a 1000 years ago. They try to understand the process of change in the world. And this is now extremely relevant and important because we are in the midst of the biggest change in human history.
그리고 빅테크 기업의 높은 사람들이 아직 저나 다른 역사학자, 철학자들과 이야기를 하고 싶어 하지 않을까 생각합니다. 그들이야말로 누구보다 그들이 개발하고 있는 기술의 강력한 힘을 잘 이해하고 있을 것이고, 그들도 두려워하고 있습니다. 그들은 이 신뢰의 역설에, 군비 경쟁과도 같은 상황에 놓여 있습니다. 아마 그들 대부분이 속도를 낮추고 싶어 할 거예요. 하지만, “다른 사람을 못 믿겠다”는 감정 때문에 오히려 더 빠르게 움직일 수밖에 없는 상황에 처했다고 느낄 것입니다. 그래서 저는 기업가들이 특별히 사악하거나 우리의 적이라고 생각하지 않습니다. 다시 말하지만 우리가 지금 목표로 삼아야 할 일은, 적어도 충분한 숫자의 기업들이 서로 신뢰를 회복하고 AI 혁명을 더 안전하고 책임감 있는 방식으로 가져갈 수 있도록 하는 것입니다.
And I think that I guess the people who lead the high Tech companies for instance, they are still open to discussing with me, with other historians, with philosophers because they are also a friend. I think they understand better than anybody else the immense power of the technology they are developing and they are afraid. They are caught in this – again - this paradox of trust, this arms race situation that many of them would like to slow down. But, because of this feeling that “I can't trust the other humans”, they feel forced to move faster and faster. So I don't think about the leaders of the AI companies or the high Tech companies as evil people or as enemies. Again the aim is how to learn to build trust between enough of them so that we can manage the AI Revolution in a more responsible and safe way.
장대익이건 그냥 궁금한 건데요, 작가님과 이야기를 했을 때 AI에 대해 진정한 우려를 하면서 어떻게 하면 인류에 해를 가하지 않으면서 제대로 발전시킬 수 있는 것인지, 이런 얘기를 진지하게 하는 큰 기업이 어디라고 얘기하실 수 있겠습니까?
유발 하라리
제가 교수가 되어서 공개적으로 학생들에게 점수를 매기듯 공개적으로 이렇게 하고 싶진 않지만, 사실 저에게 물어보지 않으셔도 됩니다. 이미 AI 혁명을 이끌고 있는 많은 사람들이 매우 심각한 우려를 많이 표현했어요.
샘 올트먼이나 일론 머스크, 또는 노벨상을 수상한 제프리 힌튼 같은 과학자도 AI가 인류의 멸종으로 이어질 수 있다는 얘기를 공개적으로 했습니다. 어떤 사람들은 “괜히 그런 얘기 하는 거지, 오히려 그러면 사람들한테 더 관심받고 투자받고 판을 키울 수 있으니까 하는 거야.” 근데 저는 그건 말도 안 되는 이야기라고 생각합니다. 우린 그걸 좀 심각하게 받아들일 필요가 있어요.
I don't want to give, as a professor still, I don't want to give kind of marks to the students in a kind of open way, but I would say that you don't even need to ask me on the record you have many of the people who lead the AI Revolution expressing very grave concerns. You have people like Sam Altmann, people like Elon Musk, people, of course, scientists like Jeffrey Hinton who won the Nobel Prize saying publicly that this can lead to the extinction of humankind. I've heard some people saying that, “oh, they're saying it just to create more interest in their industry and just to attract more investment and create more hype.” But I think this is really ridiculous. I think we need to take it seriously.
정유 회사 사장이 공개적으로 석유가 지구의 환경을 위협하고 있다, 이런 이야기를 하는 걸 들어보신 적이 있으십니까? 주가를 올리기 위해서라도 나와서 그런 얘기하는 거 들어본 적 없으실 겁니다. 그렇기 때문에 울트만이나 머스크같은 사람들, 또는 과학자들이 나와서 공개적으로 "인류의 생존 자체에 위협이 될 수도 있다", 이런 얘기를 할 때는 본인들도 진짜 두려워서 하는 겁니다.
You don't hear the managers of oil companies going public and saying oil could destroy humankind in order to raise their stocks. So when you have again, people like Sam Altman, like Elon Musk, like the leading scientists saying openly this can be a grave danger to the very survival of humanity. Don't think about it as hype. They are really afraid.
장대익 감사합니다. 그러면 지금부터 여기에 계신 분들께 질문할 기회를 드릴 텐데요. 저 맨 뒤에 계신 분부터 질문하시도록 하겠습니다.
서울신문 김기중 기자 예전에 책을 봤을 때는 AI 쪽에 더 관심이 있었는데, 이번에 책을 다시 보니까 1부의 '인간 네트워크' 부분이 오히려 더 눈에 들어오더라고요. 그러니까 민주주의가 어떻게 위기에 처하는가를 다룬 내용인데, 읽을 때는 트럼프에 대해 우려하는 내용인가 싶었는데 지금 보니 윤석열의 친위 쿠데타를 정확하게 예언한 게 아닌가, 이런 생각도 들었습니다. 외신을 통해 보셨는지 모르겠지만 최근 한국의 상황을 들으셨는지 궁금하고요. 이번처럼 친위 쿠데타를 시도한 이들을 어떻게 처벌을 해야 하는지, 다시는 이런 일이 일어나지 않도록 하려면 일부에서 얘기했던 민간 네트워크가 어떤 식으로 작동해야 한다고 생각하시는지 말씀을 해 주시면 좋겠습니다.
유발 하라리저는 한국 정치나 사회에 대한 전문가가 아니고, 이스라엘의 입장에서 외국인이 며칠 들렀다가 모든 것을 다 안다는 식으로 무슨 일이 일어났고 어떻게 해야 하는지 강하게 말하는 것이 참 쉽다는 걸 잘 알아서 그렇게 하는 걸 피하려고 노력을 합니다. 두 가지만 얘기를 하겠습니다.
Well, I'm not an expert on Korean politics or society and I know, from my country, from Israel that it's too easy for foreigners to come visit for a few days think they know everything and have these very strong opinions about what happens and what should be done. And I try to avoid this. So I would just say two things.
첫 번째 것은 약간 농담인데요. 친위 쿠데타 시도가 있었을 때, 그러니까 12월에 저는 인도에 있었습니다. 아침에 일어났는데 한 팀원이 와서 한국에서 쿠데타가 있었다는 거예요. 제가 그랬죠. “드디어 북한에서 쿠데타가 일어났구나. 드디어 그를 제거하는 구나...” 그리고 그가 말했죠. “아니, 아니. 남한에서.” 근데 솔직히 놀라지는 않았습니다. 왜냐하면, 이러한 일은 현재 많은 국가에서 일어나고 있는 일이고, 사실 역사적으로 봤을 때 민주주의에 늘 있었던 문제이기도 합니다. 많은 분이 쿠데타라고 하면 군대가 탱크를 몰고 와서 국가를 무력으로 장악하는 것이라고 생각을 하실지 모르겠지만, 사실 역사적으로 민주주의 국가에서의 이런 쿠데타는 집권 정당이나 정부에 의해 훨씬 더 많이 일어났었어요.
First, a bit kind of almost humoristic. I was in India in, in December when the attempted coup happened and I woke up in the morning and one of my team members told me there was a coup in Korea and I said, “Oh, finally a coup in North Korea. Finally they'll get rid of him.” And he says, “No, no, no in South Korea.” But seriously, I mean, in a way it wasn't such a big surprise because we see this thing happening again and again in more countries. And actually this is a very old problem in democracy that we know from history. People think that coups are something that is done by military officers that they go with tanks and take over the country. But in history, a lot of coups are actually done from above by the local government itself.
민주주의의 큰 문제는, 민주주의는 누군가에게 제한된 시간 동안에만 권력을 준다는 점입니다. 조건이 있죠. 그 시간이 지나고 나면 권력을 돌려줘야 하고, 우리는 다음번엔 다른 선택을 할 수 있어야 합니다. 그런데 만약 권력을 잡은 사람, 또는 정당이 권력을 돌려주고 싶지 않으면 어떻게 될까요? 일단 민주적인 방식으로 권력을 잡았지만 그러고 나니까 계속 이제 권력을 유지하기 위해서 비민주적 방법을 써보자 이런 유혹을 받게 되는 겁니다.
The big problem in democracy always is that democracy is a system when you give power to somebody for a limited amount of time on condition that afterwards he gives the power back and you can choose differently next time. And the question is what happens if the person or the party that you give power to doesn't want to give it back. Now that they have the power, they can use the power that they gained democratically in order to stay in power even in an undemocratic way.
처음에는 법을 이용해서 권력을 잡았어요. 그런데 권력을 계속 잡고 있기 위해서 법 자체를 파괴하는 겁니다. 민주주의에서는 보통 이런 사태를 예방하기 위해 여러 가지 견제와 균형의 장치를 마련하고 있죠. 즉 정부의 권력을 제한하는 것을 시스템적으로 갖추고 있습니다. 가장 중요한 견제 장치 두 가지가 바로 자유로운 언론과 독립된 법원입니다. 언론의 역할이 바로 정부가 무언가 불법을 저지르거나 부패했을 때 이것을 보도하는 것입니다. 언론이 사람들에게 알려야 하고, 법원은 만약 그것이 정부일지라도 불법적인 행위를 예방하거나 중단시킬 권한이 있어야 합니다.
You first use the law in order to gain power. Then you use your power in order to distort and to destroy the law. Now to prevent this, democracies have several what is known as checks and balances or systems that limit the power of the government itself. Two of the most important such checks are free media and free courts, independent courts. The media's role is to report if the government does something unlawful or corrupt or some big mistake. So the media's role is to inform people about it and the courts should have the power to prevent, to stop unlawful behavior even of the government.
독재자와 독재를 꿈꾸는 지도자들이 요 근 몇 년 새에 깨달은 것이 있는데, 그러니까 일종의 각본이 있다는 거예요. 민주정을 어떻게 독재정으로 바꿀 것인가? 일단 언론을 파괴하고, 사법부의 독립성을 파괴해요. 그럼 그다음부턴 뭐든 할 수 있게 되는 겁니다. 그런 상황에서, 선거가 열릴 수는 있지만, 형식적인 것이 되어버립니다. 정말로 자유롭고 공정한 선거가 아니라요. 러시아에서도 선거가 열립니다. 심지어 북한에도 선거가 있어요. 그러니까 선거가 열린단 사실은 민주주의의 충분한 지표가 아닙니다. 언론의 자유와 사법의 자유 없이는, 정부가 마음대로 선거를 조작할 수 있기 때문입니다.
And what strongmen and leaders who want to be dictators they discovered in recent years, that there is a kind of playbook. How do you turn a democracy into a dictatorship? You destroy the free press, you destroy the independence of the courts and then you can do anything you want. In such a situation, you can still go on holding elections but these elections are now just a ritual in a dictatorship and not truly free and fair elections and we see it happening in many countries. There are elections. In Russia, there are elections. Even in North Korea, there are elections. So the fact that there are elections is not a good enough indication that this is a democracy. Because without a free press and free courts, the government can simply rig the elections.
그래서 어떤 국가가 민주주의 국가냐 아니냐를 판단하는 데에 중요한 질문은 ‘무엇이 정부의 힘을 제한하는가?’입니다. 말하자면 정부가 야당을 없애고 싶어하거나 시민들의 투표권을 제한하려 할 때 이 국가에 어떤 메커니즘이 있는가? 어떤 메커니즘이 정부 권력을 제한하는가? 이것이 민주주의의 핵심적인 질문입니다.
So the real question whether a countryis democratic it's the question what limits the power of the government? What mechanism is there in the country that if the government, let's say, wants to abolish opposition parties or take voting rights from citizens? what mechanism limits the power of the ruling coalition? That's the key question for democracy.
한국독서교육신문 김호이 기자안녕하세요. 저는 한국독서교육신문의 김호이 기자라고 합니다. AI의 경계를 어디까지 보시는지 궁금합니다. 로봇 청소기도 AI를 볼 수 있을지, 아니면 요즘 챗GPT 같은 경우도 AI라고 얘기를 하는데 다른 기계들도 AI로 볼 수 있을지 궁금합니다.
유발 하라리 지금 AI에 관한 이야기가 워낙 많다 보니 혼란이 좀 있는 것 같습니다. 어떤 분들은 자동화된 기계도 AI라고 생각하는 경향이 있습니다. 그런데 AI가 자동화를 의미하는 것은 아닙니다. 우리가 무엇을 AI라고 부르는 것의 핵심은 이것이 행위의 주체성을 갖추었느냐 아니냐에 달려 있습니다. 어떤 기계가 스스로 결정을 내릴 수도 없고, 미리 프로그래밍 된 절차만 따르면서, 새로운 것을 학습할 수 없으면 AI가 아닙니다. 그냥 자동화된 기계이지요.
There is so much hype around AI right now that it creates confusion and people tend to sometimes think that any automatic machine is an AI. This is not the case. AI doesn't mean automation. AI means agency. If you have an automatic machine that isn't able to make decisions by itself, it simply follows a pre-programmed procedure it can't learn anything, it can't change anything then this is not an AI. This is just some automatic machine.
집에 커피 머신이 있습니다. 제가 버튼만 누르면 기계를 만든 사람이 설치한 프로그램에 따라 자동으로 에스프레소를 내려줍니다. 그럼 이건 자동화 기계지 AI는 아닙니다. 이게 만약에 AI면 어떻게 했을까요? 제가 커피 머신에 가서 버튼을 누르기 전에 커피 머신이 먼저 이렇게 얘기를 합니다. “제가 몇 주 동안 당신을 봐왔고, 당신에 대해 뭘 좀 배운게 있습니다. 이제 저는 당신이 에스프레소를 원할 것이란 걸 예측합니다. 그래서 이미 당신에게 에스프레소를 만들어주기로 했죠.” 이러면 이것은 AI입니다.
I have in my home a coffee machine that is automatic. I press a button and it automatically makes an espresso according to a program which was installed by the people who built the machine. Even though it's automatic, it is not an to be AI. Let's say one day when I approached the coffee machine, before I press any button, the coffee machine tells me “I've been watching you for a couple of weeks I've learned certain things about you. I now predict that you probably want an espresso. So I already by myself decided to make you an espresso.” It's really an AI.
다음 날 제가 또 커피 머신에 가면, 이제 이렇게 말하는 겁니다. “제가 에스프레소 말고 베스프레소라는 새로운 음료로 커피 음료를 만들었습니다. 좋아하실 것 같아요.” 새로운 것을 만들 수 있는 능력은, 뭐 커피 정도 하는 거야 좋죠. 상관이 없습니다. 그러나 AI는 신약도 만들고, 신무기도 만들 것이며, 새로운 종류의 화폐, 심지어는 새로운 종교나 이념까지도 만들 것이고, 그렇게 되면 매우 큰 이슈가 될 겁니다.
If the next day when I approach it says “I've now invented a new drink I call it Bestpresso, not espresso. I think you would like it better.” This ability to invent new things of course, when it's just coffee, who cares? But AI is going to invent new medicines, new weapons, new kinds of money, even new religions and ideologies and this will change the world.
장대익
정말 중요한 이슈라는 생각이 들어서 조금 이어서 이야기를 하자면, 자율성을 갖는다는 것, 행위 주체자가 된다는 것이 자동화와는 다르다는 말씀을 하신 거는 저도 인정할 수가 있는데, 결국 추천을 해 주는 것이, 그것이 자율적인 존재가 됐다는 뜻은 아닐 수도 있을 것 같거든요. 왜냐하면, 자율적인 존재라고 하는 것은 사실 (AI가) 스스로 결정을 하고 우리가 AI의 결정에 어쩔 수 없이 따를 수밖에 없는 상황이 연출될 때, 그때 AI가 자율적인 존재가 된다고 할 수 있을 텐데 아직은 우리가 AI에게 명령하고 (AI가) 추천을 해줘도 우리가 거부할 수 있는 상황이니 아직은 그 상태는 아니지 않나. 다시 말해 어떤 목표를 주면 그 목표에 가장 적당한 수단을 주지만 그 목표 자체를 설정하는 단계는 아직 아니고 그것이 인간이 AI에게 양도해서는 안 되는 최후의 지점이라고 생각하는데, 그렇다면 자율적인 행위 주체자가 됐다는 것이 조금 더 명확하게 이해될 필요가 있지 않을까 생각해서 말씀드려요.
유발 하라리
근데 한 가지 중요한 것은, 사실 단순한 추천도 엄청난 힘을 가진다는 겁니다. 생각해보면, 요즘 사람들은 점점 여행을 다닐 때 애플리케이션에서 어떻게 길을 추천하든 그대로 따라갑니다. 애플리케이션이 오른쪽으로 가라, 왼쪽으로 가라고 강요하진 않아요. 그냥 추천해줄 뿐인데, 대부분의 사람은 별 분별 없이 추천을 따르죠. 이런 도움 없이 여행하는 법을 잊고 있는 겁니다.
But one thing important about this, even if it's only a recommendation, we know that recommendation has enormous power. Especially as people gradually they just follow whatever the recommendation is, Like we saw, you know, with ways and these programs that recommend how to travel around the city. They don't force you to do right or left, they just recommend but most people very quickly they just blindly follow the recommendation and they forget how they can travel around the city without this help.
장대익
자율성이라는 게 비자율적인 것과 자율적인 것, 이렇게 양분되는 게 아니라 뭔가 미끄러지는 지점이 있다는 말씀을 하신 것 같아요. 저도 동의합니다. 여기 아까부터 기다리고 계셨는데, 질문하시죠.
뉴시스 이수린 인턴 기자 방금 말씀해 주신 부분 중 신뢰의 중요성, 또 책에서 정보 중요성과 함께 실리콘 장벽을 언급하신 부분이 굉장히 인상이 깊었습니다. 저는 크게 두 가지를 여쭤보고 싶은데요. 얼마 전에 이탈리아에서 세계 최초로 AI 일간지가 나왔다고 하는데, 인공지능 시대에 사람 언론인으로서 어떤 길을 걸을 수 있을지 여쭤보고 싶고요. 그리고 두 번째는 제가 인턴 기자라고 말씀을 드렸는데요. 인공지능 시대에 커리어라든지 취업을 고민하는 한국 청년들도 굉장히 많습니다. 저만 하더라도 AI를 활용해서 기사를 쓰고요. AI가 내레이션도 잘합니다. 그러니까 인간 취준생으로서 인공지능과 다르게 가져갈 수 있는 특별함이 뭐가 있을지 교수님의 생각을 듣고 싶습니다.
유발 하라리 두 번째 질문부터 답을 하는 걸로 시작을 하겠습니다. 노동 시장에 어마어마한 변화가 있을 것이란 건 자명합니다. 그러나 그 변화가 어떤 것인지, 앞으로 5년, 10년, 20년 후에 사람들이 어떤 일을 아직도 하고 있을지 예측하는 것은 불가능합니다. 예를 들어, 어떤 사람들은 “AI 시대, 컴퓨터 시대구나. 얼른 코딩을 배워야겠다. 프로그래머가 많이 필요할 거니까.” 라고 생각할 수도 있지만, 아닐 수도 있습니다. 오히려 AI가 코딩을 너무 잘하게 돼서 생각보다 훨씬 적은 수의 인간 프로그래머만 필요하게 될 수도 있는 겁니다.
Okay, maybe I start with the second question. We know there are going to be tremendous changes in the job markets but we cannot predict what they will be and what kind of jobs people will still be doing in five or 10 or 20 years. For example, some people think ‘oh, this is the age of AI this is the age of computers so I should learn how to code because they'll need a lot of coders but maybe not. Maybe AI becomes so good at coding that we don't need human coders or at least we don't need many human coders.
제가 해드릴 수 있는 최선의 조언은 이것입니다. 노동 시장은 굉장히 불안정하기 때문에 계속해서 변할 것이고, AI가 점점 더 좋아지면 사람들은 유연한 마음가짐으로 일생 내내 배우고 변화하려는 능력을 갖춰야 할 것입니다. 한 가지를 배워 평생 그걸 하려는 생각은 분명히 더는 안 먹힐 테니까요. 그래서 어떤 한 기술에 집중하는 게 아니라, 일생에 걸쳐 배우고 변화하고자 하는 유연성과 할 수 있는 것을 폭넓게 가져가는 것이 필요합니다.
The best advice that I can give is that because the job market will be extremely volatile, it will keep changing again and again as AI becomes better and better people need to be have very flexible minds and to be able to keep learning and keep changing throughout their lives. Because the idea that I learned one thing and then I do it for the rest of my life, this is absolutely not going to work. So people shouldn't focus on learning just one skill, but on developing the mental flexibility to keep learning and keep changing throughout their lives and to also acquire a broad set of skills.
기술은 보통 세 종류로 나뉩니다. 첫 번째는 지적인 기술인데요, 예를 들어 많은 글을 읽고 분석한 후 나의 글을 쓰는 것이지요. 타인과 상호 작용하고 관계를 맺을 수 있는 감정적, 사회적 기술도 있고, 신체를 사용하는, 운동적 기술도 있습니다. 이 세 가지를 모두 발달시키는 것이 좋습니다. 지적 능력만 발전시킨다? AI가 대체하기 가장 쉬운 것이 이것입니다.
Skills are often divided into three kinds. You have intellectual skills like reading a lot of articles and analyzing them and writing your own article. You have more emotional and social skills for how to interact and relate to other people, and you have bodily skills, motoric skills. It's best to develop all three. If you only develop your intellect, this is the easiest thing for AI to replace.
그리고 첫 번째 질문에 대해서, 어느 때보다도 인간 언론인의 역할이 중요해지는 시대라고 생각합니다. AI는 우리보다 훨씬 빠르게 정보를 생성해내는 데에 탁월하지만, 정보는 진실이 아닙니다. 우리가 접하는 대부분의 정보는 쓰레기예요. 대부분의 정보는 판타지이고 환상이자 심지어 거짓이기까지 합니다. 완전히 개방된, 완전히 자유로운 정보 시장에서, 진실은 엄청난 양의 픽션과 판타지에 잠식되게 될 것입니다.
As for the first question about the role of journalists and the ME and human journalists, I think it is more important than ever. AI is extremely good in generating more information much faster than us. But information isn't truth. Most information is junk. Most information is fantasy and illusions and sometimes lies. In a completely open market of information, in a completely free market of information, the truth will be flooded by enormous amounts of fiction and fantasy.
진실이라는 것에는 세 가지 문제가 있습니다. 첫 번째, 픽션은 값싸지만 진실은 돈이 듭니다. 당신이 무언가, 한국의 정치적 상황이라던가 물리학의 역사라던가에 대한 설명을 쓰려면, 많은 돈과 노력이 필요합니다. 그에 비해 허구는 쉬워요. 그냥 지어내면 됩니다. 두 번째는 복잡하다는 겁니다. 픽션은 간단하게 만들고 싶은 만큼 간단하게 만들 수 있어요. 진실은 복잡합니다. 현실이 복잡하니까요. 세 번째는, 진실은 종종 불쾌하거나 아플 수 있단 겁니다. 우리도 나 자신이나 세계에 대해 알고 싶지 않은 것들이 있잖아요. 사실 여하를 떠나서요. 반면 픽션은 우리가 원하는 만큼 매력적으로, 좋아보이게 만들 수 있죠.
The truth has three main problems. First, the truth is costly, whereas fiction is cheap. If you want to write a truthful account of anything of the political situation in Korea, of history of physics, you need to invest time and effort and money to gather a lot of evidence to analyze it, to fact check it. This is very costly. Fiction, you just write anything you want. It's very cheap. The second problem of truth is that it tends to be complicated. Whereas fiction can be made as simple as you would like it to be when the truth is complicated because reality is complicated. And then the third problem of truth is that the truth is often unpleasant, painful. There are things we don't like to know about ourselves or about the world even if they are true. Fiction in contrast, can be made as attractive, as flattering as you would like it to be.
그렇기 때문에 만약에 정보 시장이라는 것이 그냥 100% 개방되어 버린다, 그러면 이렇게 값비싸고 복잡하고 더군다나 아프기까지 한 진실이라는 것은 값싸고 단순하고 예쁘게 생긴 이런 허구에 완전히 묻혀버리게 됩니다. 진실을 얻고자 한다면, 노력을 기울여야 합니다. 이것이 우리가 언론인을 수년간 훈련시키는 이유입니다. 언론 학교에 가서 쓰레기 정보의 바다에서 진실이라는 귀한 보석을 찾을 수 있는 능력을 기르는 연습을 하죠.
So in a completely open information market, the costly, complicated and painful truth, it is likely to be flooded to be swamped by enormous amounts of cheap, attractive and simple fiction. And if we want to get to the truth, we need to make some special effort. And this is why, for instance, we train journalists for years. They go to journalism school and they practice in order to be able to find these rare gems of truth in the ocean of junk information.
JTBC 강나현 기자지금 한국은 물론 전 세계적으로 극우 세력의 목소리가 굉장히 커지고 있는데요, 지적하신 AI의 발달 양상이나 신뢰의 무너짐이라는 지금의 상황이 앞으로 극우 세력의 미래에 어떤 영향을 미칠 것으로 보이는지 궁금합니다. 한 가지만 더 질문드리면, AI가 편견이 포함된 데이터베이스를 기반으로 확장될 수 있는 위험에 대해서도 경고를 하셨습니다. 앞으로 전 지구적 불평등에 AI가 어떤 식으로 영향을 미칠 것으로 보는지도 궁금합니다.
유발 하라리
말씀하신 부분에서 AI는 긍정적인 잠재력과 부정적인 잠재력을 모두 가지고 있다고 생각합니다. 결국은 인간이 AI를 어떻게 사용하냐의 문제입니다. AI엔 분명 불평등 문제를 심화시킬 수 있는 가능성도 있습니다. 이러한 불평등은 개인 간뿐만이 아니라 국가 간에도 심화될 수가 있죠. 몇몇 소수의 기업, 몇몇 국가가 AI의 힘을 독점하게 되면 경제적으로, 정치적으로도 그 간극이 더 커지게 될 가능성이 있습니다.
I think AI has both positive and negative potential in this respect, it's all a question of how we are using it. If used badly, AI can create immense inequality both within countries and between countries. As the few people and few corporations who lead the AI Revolution might accumulate enormous economic and political power, whereas everybody else becomes powerless.
어쩌면 19세기 산업혁명 때 일어난 일이 반복될 수도 있겠죠. 그러니까 먼저 산업화를 이룩한 몇몇 나라가 다른 국가들을 정복하고 착취하는 그런 현상이 일어났죠. AI 혁명을 선도하는 두세 개 국가가 전 세계를 군사적으로, 경제적으로 압도하면서 전 세계를 AI 제국화할 수도 있을 것입니다. 아마 전쟁이 일어난다면, 즉 AI 기술을 갖춘 군대와 AI 기술을 갖추지 못한 군대 사이에 전쟁이 일어난다면 19세기와 비슷한 일이 일어날 겁니다. 즉, 전통적인 무기를 갖춘 군대와 증기선, 기관총, 탱크를 갖춘 산업화된 군대가 만났을 때와 유사한 결과가 있을 겁니다.
We could see a repeat of what happened in the 19th century with the Industrial Revolution the few countries who industrialized first, they conquered and exploited the rest of the world. So if like two, three countries who lead the AI Revolution, they will have the military and economic power to turn all the rest of the world into AI empires. A war between an AI army and a present day army that has no AI technology would be like in the 19th century when an old fashioned army tried to face an army with steam ships and machine guns and modern industrial weapons that they have no chance
극우의 부상과 권위주의 정권에 대해 이야기하자면요, 이들은 일반적으로 혐오와 사람들 사이의 긴장을 퍼뜨리면서 성장합니다. 즉, 민주주의 사회를 지탱하는 신뢰를 파괴하면서 성장한다는 것이지요. 민주주의가 기능하기 위해서는 시민 간의 긴장이 필요합니다. 독재는 신뢰를 필요로 하지 않아요. 독재는 공포로 작동합니다. 우리는 지금 역사상 가장 정교한 정보통신 기술을 갖고도 서로 대화를 못 하고 있죠. 무슨 상관이 있냐면, 소셜 미디어에서 AI 알고리즘과 챗봇이 의도적으로 음모론과 가짜뉴스를 퍼뜨려 공포와 혐오를 조장하고 있기 때문입니다. 사람들 사이의 신뢰가 무너지면 민주주의는 불가능해집니다.
With regard to the rise of far right and authoritarian regimes. In general they thrive by spreading hatred and tensions between people. Again, by destroying the trust that hold democratic societies together. Democracy needs trust between citizens in order to function. Dictatorship doesn't need trust. Dictatorship works on fear. What we see happening in recent years is that we have the most sophisticated information technology in history and people can no longer talk with each other. And the connection is that AI algorithms and bots, especially on social media, they deliberately spread conspiracy theories and fake news that cause fear and hatred between citizens. And then when the trust between citizens collapses, you can't trust your fellow citizens then democracy becomes impossible.
그렇다고 민주주의가 마냥 무기력하지는 않습니다. 민주 정부에는 이것을 예방하기 위하여 할 수 있는 조치들이 있습니다. 가장 쉬운 것 중 하나가 법을 제정하는 건데, 어떤 법이냐면 로봇이나 AI가 사람인 척하고 인간에게 접촉하는 것을 금지하는 법을 만드는 겁니다. 우리가 인터넷에 접속해 어떤 이야기를 읽거나 누구랑 대화를 한다면, 상대방이 사람인지 로봇인지 알아볼 수 있어야 할 필요가 있습니다. 사람인 척하는 로봇은 위조지폐와 같은 범죄로 취급을 해야 합니다.
But democracy is not helpless. There are steps that democratic governments can take to prevent this. The easiest and one of the most important steps it is to have a law against fake humans, against counterfeit humans by which, I mean, a law that forbids bots and AI's to pretend to be human beings. When you go online and read some story or talk with somebody, you need to know if this is a bot or this is a human being, it must identify itself as a bot and counterfeit humans. Bots that pretend to be humans should be a crime just like counterfeit money.
어떤 사람은 “이것이 표현의 자유를 위반하는 것이 아니냐?”고 말하지만, 표현의 자유는 인간의 권리입니다. 인간만이 표현의 자유를 가질 수 있습니다. 로봇에게는 표현의 자유가 없습니다. 만약 인간이 가짜 뉴스를 만든다면, 저는 이러한 것이 표현의 자유로 지켜져야 한다고 생각합니다. 우리는 매우 특별한 예외 상황을 제외하면 인간의 표현을 검열하지 않기 위해 굉장히 조심해야 한다는 것이죠. 하지만 중요한 문제는 사람이 만든 콘텐츠가 아닙니다. 진짜 문제는 로봇과 알고리즘이 만들고 퍼뜨리는 콘텐츠입니다.
Some say “but, this is again freedom of speech.” But freedom of speech is a human right. Only humans have freedom of speech. Bots don't have freedom of speech. If a human writes some fake news story, I think this should be protected by freedom of speech. We should be very, very careful except in extreme circumstances not to censor human expression. But the main problem is not the content produced by humans. The main problem is the content which is produced and spread by bots and algorithms.
한겨레21 이유진 기자지금 말씀하신 것과 일맥상통하는 질문인데요. 윤석열 대통령이 국민들에게 레거시 미디어가 편향적인 시각을 갖고 있다고 얘기하면서, 유튜브를 보라고 말한 적이 있습니다. 이미 AI가 지도자를 움직였다고도 볼 수 있는데요. 이를 자정 작용으로 바로잡으려고 국회와 국민이 선택한 것 중에 하나가 탄핵이라고 얘기하는 사람들도 있습니다. 반면 AI 콘텐츠를 (통해) 학습한 극우는 대통령을 옹위하고 더욱 극단적으로 움직이고 있는데요. 이런 상황에서 극우와 민주주의가 어떻게 공존할 수 있는지, 또 한국의 민주주의를 향한 어려움을 보시면서 이 현장에서 어떤 생각이 드시는지 궁금합니다.
유발 하라리 다시 말씀드리지만, 제가 한국의 상황에 대한 전문 지식이 없으므로 구체적으로 말씀을 드릴 수는 없습니다. 그러나 일반적으로, 민주주의에서 아주 폭넓은 범위의 여러 의견과 관심사들이 표현될 수 있어야 하고, 그들을 대표하는 사람들이 선거에 출마할 수 있어야 합니다. 그리고 그들이 다수의 표를 얻는다면, 그들이 정부를 구성할 권리를 갖게 되는 것이지요. 근데 분명한 조건이 있습니다. 게임에 참여하고 싶으면, 게임의 규칙을 받아들여야 한다는 것입니다. 선거에서 이긴 후 독재를 위하여 권력을 사용한다는 것은 받아들일 수가 없는 것입니다.
Again, I can't speak specifically about the situation in Korea because I don't have the knowledge, the expertise. But generally speaking I would say that in a democracy, a very wide range of opinions and interests should be represented and should be allowed to run in elections. And if they get the majority of the votes, then they have the right to form the government. However, if you want to play a part in the game, you must accept the rules of the game. So somebody who tries to win elections but when if he or she WINS, then they want to use their power to form a dictatorship this is unacceptable.
민주주의의 핵심은 정부의 권한을 제한하는 자정 기능입니다. 아까도 말했듯, 누구를 4년 임기로 뽑았다면, 4년 후에 당신은 다른 선택을 할 수 있어야 합니다. 그렇지 않으면 민주주의가 아닙니다. 누가 51프로의 득표로 승리했다고 해봅시다. 그러고 나서 뽑지 않은 사람들의 투표권을 박탈하는 건 안됩니다. 4년 혹은 시간이 지나서 "아, 저번에 잘못 했네. 다른 사람 뽑아보자." 이럴 수가 없으니까요.
The whole point of a democracy is that you have these self correcting mechanisms that limit the power of the government. And as I said, you vote for somebody, let's say, for four years but you must have the ability after four years to change them. Otherwise it's not a democracy. If somebody WINS, say 51 percent of the vote and then uses their power to take away voting rights from the opposition then this cannot be allowed because then you don't get the chance in four years or however many years to say "Oh, we made a mistake last time. Let's now try something else."
장대익
기자분들이 아마 다들 궁금해하실 것 같아서요. 그렇다면 레거시 미디어와 뉴미디어라고 하는 유튜브라든가 SNS라든가 이런 것들이 서로 다른 메시지를 주고 있는 갈등의 상황일 수도 있는데, 지금 AI가 새로운 콘텐츠, 검증 불가능한 콘텐츠를 만들어낸다고 할 때 오히려 예전보다 더 레거시 미디어가 중요해지는 순간이지는 않을까, 라는 논쟁들이 한국 사회에도 있거든요.
유발 하라리
새로운 정보 기술이 나올 때마다 늘 새로운 언론이 출현했습니다. 처음에 신문이 있었고, 그 다음에 라디오가 나왔고, 그 다음에 텔레비전이 등장했죠. 저도 우리가 예전 기술에 머물러 있어야 한다고 생각하지는 않습니다. 미디어에서 중요한 것은 형태가 아닙니다. 종이에 있는가, 전파에 있는가, 인터넷에 있는가? 이것이 아니라, 믿을 수 있는 정보인지 아닌지를 구분할 수 있는 메커니즘이 있는지가 중요합니다.
Of course, as new information technology develops, new media appeared. I mean first you had newspapers in print and later radio came and later television came. I don't think that we have to kind of always stay with the previous technology. The key question in media is not what is the form of the media. Is it paper? Is it on radio? Is it on the internet? But does it have mechanisms to tell the difference between reliable and unreliable information?
레거시 미디어는 ‘경험’이라는 장점이 있습니다. 종이 신문을 생각해보면 최소 300년 정도 존재해왔는데요. 긴 시간동안 믿을 수 있는 정보와 그렇지 않은 정보를 구분해낼 수 있는 메커니즘을 발전시켜 왔습니다. 신문이 완벽하다는 뜻은 아닙니다만, 최소한 그러한 메커니즘을 갖추고는 있죠.
Legacy media has the advantage of experience. If you think about newspapers in print, they have been around for at least about 300 years. So this was a long time to develop mechanisms for how do we differentiate reliable from unreliable information? It doesn't mean that newspapers are perfect but at least they have these mechanisms in place.
근데 문제는 이런 새로운 미디어, 예컨대 소셜 미디어 같은 경우에는요. 어떤 회사들은 어이없을 정도로 순진한 관점을 가지고 있는 경우가 있습니다. 그걸 구분해낼 메커니즘이 필요가 없다는 거예요. 그러니까 정보 시장의 문을 활짝 열어놓으면 진실이라는 것은 저절로 모습을 드러낼 것이라고 생각하는 것이지요. 근데 이것은 정말 큰 실수입니다. 아까도 말씀드렸듯, 정보의 완전 개방 시장에서 진실은 바닥으로 가라앉게 됩니다. 시장이 값싸고 단순하고 재밌는 픽션과 판타지로 넘쳐나게 될 테니까요.
One problem with new media like social media is that some of the companies they have this extremely naive view that we don't need any mechanisms to tell the difference. We just opened the gates and in a completely free market of information, they believe the truth will automatically rise to the surface. But this is a complete mistake. As I explained before, in a completely free information market, the truth sinks to the bottom as the market is flooded by these cheap and simple and attractive fictions and fantasies.
지금 대부분의 SNS 플랫폼에서, 기사를 편집하는 것은 사람이 아닌 알고리즘입니다. 그리고 알고리즘은 진실에 관심이 없습니다. 사용자 참여도를 신경 쓰죠. 가장 참여도를 높일 수 있는 것이 최상단에 올라오게 됩니다. 여기서 참여도가 높은 콘텐츠라는 것은 우리의 주의를 확 끌고 공포나 분노, 욕심 같은 '감정 버튼을 누르는' 콘텐츠를 말합니다. 물론 엔터테인먼트 산업에서는 참여도가 좋은 지표겠지만, 언론에선 아닙니다.
In many social media platforms, they are no longer edited by human beings, but they are edited by algorithms. And the algorithms don't care about the truth they care about engagement. They rise to the top. The most engaging stories. Engaging content is content that captures your attention and presses your emotional buttons like fear or anger or greed. Now engagement is a good measure in the entertainment business, but not in the news business.
지금 무슨 일이 일어나고 있는지 이해하려면, 소셜 미디어가 그냥 ‘엔터테인먼트’와 ‘뉴스’를 구분하지 않는다는 점을 알아야 한다고 생각합니다. 예전에는 매우 다른 두 가지가 있었죠. TV에서 뉴스가 나오고, 뉴스가 끝나고 나면 무슨 공포 영화나 코메디 프로그램이 나왔습니다. 사람들이 이건 뉴스고, 이건 재미있는 거라고 구분했죠. 소셜 미디어에선 그것들이 다 뒤섞여 있습니다. 뉴스가 그냥 공포영화나 코미디가 된 거죠. 정치인들도 여기에 영향을 많이 받고 있습니다. 그들도 종종 책임감 있고 진실되게 행동하는 것이 아니라, 조회수를 높일 수 있는 콘텐츠를 만드는 데에 집중하고 있죠.
I think one way to understand what is happening is that social media just doesn't understand the difference between entertainment and news. Like previously, there are two very different like you have the news on television and then after the news is over, you have some horror movie or you have some comedy and this is an entertainment and people understand this is news this is entertainment.
In social media they all got mixed together. So the news is like horror movie or comedy and this doesn't work like it. Even politicians are affected by it because they need to get engagement.
So they are often focused on creating engaging content instead of on being responsible and truthful.
몇 주 전에 다들 이런 현상의 충격적인 예시를 봤죠. 미국 백악관에서 열린 트럼프 대통령과 젤렌스키 대통령 간의 대담에서 이 사건을 가장 잘 보여주는 한 문장이 제일 마지막에 나왔어요. 트럼프가 이런 말을 했는데, 제가 지금 정확히 기억이 나진 않아서 기사 쓰기 전 체크를 꼭 해주세요. 트럼프가 이런 말을 했죠. “오 진짜 좋은 텔레비전 감이 되겠는데.” 그러니까 그는 이것이 리얼리티 쇼라고 생각하고 있었던 겁니다. 정치를 하려고 거기 있는 것이 아니라, 리얼리티 쇼를 찍고 있다는 것이죠.
And we saw one shocking example of that in the press conference between President Trump and President Zelensky in the White House a couple of weeks ago. I think the most important sentence in the whole press conference is the very end. Trump said something like, I can't remember to check that effect me before you publish it but Trump said something like, “Oh, this will be good television.” He was thinking, ‘Oh, this is reality television.’ We are not here doing politics doing politics is doing reality television.
※ 트럼프가 실제로 한 말은 “This is going to be great television” (이거 시청률 제대로 나오겠는데?) 였습니다.
전 세계적으로도 정치인들이 점점 사람들한테 충격을 주는 언행으로 조회수를 높이려 하고 있습니다. 그러나 정치와 뉴스는 조회수를 신경 쓰거나 사람들을 놀라게, 혹은 즐겁게 하는 것이 되어선 안 됩니다. 개인적으로는 정치인은 좀 지루한 게 좋습니다.
And you have a lot of politicians around the world that now they say things to shock to get engagement. But this is an error in category politics and news should not be about engagement and about shocking people or entertaining people. Personally, I prefer boring politicians.
SBS 뉴스 김민수 기자오늘 내용을 보면 기술 시대에 정보가 독점되고 또 서로 간에 소통의 문제들이 많이 발생한다는 내용으로 이해가 됩니다. 교수님께서도 이것과 관련해 많은 이야기를 해오셨을 텐데, 가장 중요하게 생각하시는 게 인간 간의 신뢰 문제를 회복해야 한다는 부분인 것 같습니다. 우리가 신뢰를 어떻게 회복할 수 있을 것인지 좀 조언을 해주신다면요.
유발 하라리 대단히 큰 질문이라 짧게 답하기는 어렵습니다만 아주 간단하게 두 가지만 말씀드리면 첫 번째로는 챗봇을 금지해야 합니다. 무슨 말이냐면, 게시판이나 채팅방에서 AI와 이야기하는 것은 환영입니다만, 반드시 자기들이 AI이며 인간이 아님을 확실히 하는 조건으로만 그렇다는 것입니다. 만약 제가 트위터나 틱톡에서 무언가를 본다면, 사람이 만든 것인지 AI가 만든 것인지를 알 수 있어야 합니다.
So this is a big question. We have very little time. I'll say two things only. First of all, to ban the bots. by which I mean boards and chat boards and AI's are welcome to talk with us but only on condition that they clearly identify themselves as AI's and not as human beings. If I go on Twitter or TikTok and I see some content, I need to know whether this is a human being or an AI producing it.
두 번째는 우리가 인간이 하는 말이나 행동을 해석할 때 조금 더 관대하게, 조금 더 선의의 측면에서 봐주려고 노력해야 합니다. 모든 말과 행동은 여러 방식으로 해석될 수 있습니다. 다른 사람이나 다른 그룹이 거짓말을 하거나 나쁜 짓을 하려고 한다는 확실한 증거가 없는 한, 우리는 최악의 결론으로 치닫지 않아야 합니다. 일단은 좋은 의도로 했다고 믿어보는 것이지요.
Secondly, to be more charitable or generous in the way we interpret what human beings say and do. Every word, every action can be interpreted in several different ways. And unless we have good evidence that the other human, that the other group is lying or doing something harmful, we should not immediately go for the worst possible interpretation. We should give them the benefit of the doubt.
MBC 문다영 기자이미 AI가 보여준 알고리즘에 심취해 있는 사람은 어떤 방식으로 그 알고리즘에서 빠져나올 수 있다고 생각하시는지 궁금합니다. 덧붙여서 양극화를 촉진하는 게 알고리즘이고 AI 메커니즘인데, 그렇다면 AI를 활용해서 양극화를 해소할 수 있는 그런 방법들은 없을지 질문하고 싶습니다.
유발 하라리 두 가지 말씀을 드리겠습니다. 우선 우리는 알고리즘과 AI, 신기술을 너무 두려워해선 안 됩니다. 물론 책에서 여러 위협에 대해 굉장히 많은 이야기를 했지만, 사람들이 엄청나게 불안해하길 바란 것은 아닙니다. 신기술을 두려워하긴 해야하지만, 분명히 장점이 있거든요. 제 삶에서 예를 하나 들어드리겠습니다. 저는 제 남편을 23년 전에 그때 당시 거의 세계 최초의 SNS 플랫폼에서 만났습니다. 그 당시 이스라엘은 동성애 혐오가 굉장히 만연했기 때문에 다른 동성애자를 만난다는 게 굉장히 어려웠어요. 이런 점에서 소셜 미디어를 통해서 남편을 만났으니 멋진 일이죠. 23년이 지난 지금도 우리는 함께 하고 있습니다. 결국 이 질문은 우리가 AI나 알고리즘이라는 것을, 그러니까 그들이 우리를 조정하는 식으로 사용할 게 아니라 어떻게 하면 우리의 진실된 심리적, 사회적인 필요를 충족시키는 방식으로 사용할 것인가를 고민해봐야 한다는 것입니다.
I'll say two things. I mean, first of all, we shouldn't be too much afraid of the algorithms and the AI's and the new technology. I talk a lot about the threats also in the book but I don't want to make people feel extremely anxious. They need to be afraid of the new technology. It obviously also has a lot of advantages. It has a good side. To give an example from my life, I met my husband 23 years ago on one of the first social media sites that opened and it was a in Israel at the time it was a very homophobic society so it was difficult to meet other gay men. And this social media website was wonderful in this sense because it connected us and here we are still together after 23 years. The question is how to get the algorithms and the technology to serve our genuine psychological and social needs instead of manipulating us.
추천을 드리자면요. 많은 사람들이 식이 다이어트를 합니다. 그런 식으로 정보 다이어트를 해보라고 권해드리고 싶어요. 우리는 먹어야 살 수 있지만, 과식이 몸에 좋지 않다는 것은 알고 있죠. 특히 정크 푸드는 더 좋지 않단 것도요. 조금은 그렇게 나쁘지 않을 수도 있지만 어쨌든 사람들은 뭘 먹는지 굉장히 신경을 씁니다. 몸이 아닌 마음에 뭘 멕일 때에도 똑같이 신경을 써야 합니다.
And here what I can recommend is for people to have an information diet the same way that a lot of people have a food diet. We need food to sustain our bodies but we know that too much food isn't good for us and especially too much junk food isn't good for us. A little's not too bad but people try to be mindful what they eat, what they feed their body. They need to be equally mindful of what they feed their mind.
음식도 너무 많이 먹으면 좋지 않듯, 정보도 너무 많이 먹으면 안 좋습니다. 먹은 걸 소화시킬 시간이 필요하듯, 정보를 소화할 시간도 필요합니다. 그러니까 정보에 더 노출되지 않는 시간이 필요합니다. 정보를 소화하게끔 하는 거죠. 생각해보고, 성찰하는 것은 인생에 매우 중요합니다.
Actually too much information isn't good for us the same way that too much food isn't good for us. We need time to digest information the same way that we need time to digest food. So taking some time off, not consuming more information, just allowing ourselves to digest it, to think, reflect, meditate. This is something very important in life.
하루 종일 쉬지 않고 먹기만 한다면 몸이 무너져 버리겠죠. 비슷하게, 새로운 정보를 계속 마음에다 밀어넣기만 한다면 마음이 그걸 견뎌낼 수가 없습니다. 쉬는 데엔 여러 방법이 있죠. 저는 개인적으로 하루 두 시간 씩 명상을 합니다. 나가서 운동을 할 수도 있고, 등산을 할 수도 있겠죠. 스스로를 새 정보에 노출시키지 않는 시간, 숙고하고 소화시킬 시간을 주세요. 매우 중요합니다.
Think about if you just ate all day without stop, your body will collapse. Similarly, if you just keep pushing more information to your mind, it can't do that. There are different ways to take a break. Personally, I meditate for two hours every day. Some people they use out or sports or they go hiking in the wood but giving yourself time of not more information but actually just time to reflect and to digest. It is very, very important.
장대익
아주 통찰 있는 말씀을 주신 것 같아요. 이제 마무리를 해야 하는데요. 오늘 자리가 사피엔스부터 시작해서 넥서스까지 한국에 출간된 책을 알리시면서, AI와 민주주의 그리고 인간의 미래까지 큰 주제를 중심으로 다뤘습니다. 많은 분들이 궁금해하실 것 같은데요, 작가님의 다음 책 프로젝트는 무엇인가요?
유발 하라리
지금은 아동용 책 《멈출 수 없는 우리》의 마지막 권을 작업하고 있습니다. 네 권 중 세 권은 이미 출간이 되었고, 네 번째 권을 작업하고 있습니다. 8세에서 12세 아동용 시리즈고, 역시나 석기 시대부터 AI까지 우리 인류의 역사를 다뤘는데, 미래 세대를 위한 책인 것이지요.
I'm actually working on the last volume of my children's book series 《Unstoppable Us》. So three volumes out of four are already out and the 4th one, I'm working on it right now. This is actually a series for children aged around 8 to 12 which also tells the history of the world from the Stone age to AI, but for an audience of the future,
장대익마지막 질문으로 마치도록 하겠습니다. 오늘 너무 큰 통찰과 아이디어, 세계에 대한 애정과 그걸 해결하려는 작가로서의 노력, 이런 것들을 통해서 많은 걸 배웠는데요. 제가 페이스북에 이 기자회견의 사회를 본다고 하면서 혹시 질문 있으면 제가 대신 해드리겠다고 했어요. 그런데 유명 개그맨 이윤석 씨가 이런 질문을 했어요. '돌이켜 보면 역사학자로서 인류는 웃음입니까? 눈물입니까?' 인류의 미래에 대한 어떤 희망을 품고 계신지, 아니면 뭔가 또 새로운 위협을 느끼고 계시는지 여쭤보고 싶습니다.
유발 하라리 미래는 아직 결정되지 않았다고 생각합니다. 앞으로 다가올 며칠, 몇 년에 어떤 결정을 하냐에 달려있지요. 지나친 낙관주의는 인간으로 하여금 게을러지게 만듭니다. 어차피 다 좋아질 텐데 지금 이렇게 힘들게 뭐 할 필요가 없어? 그래서 지나친 낙관주의도 안 좋아요. 또 지나친 비관주의도 사람들로 하여금 책임을 안 지게 만듭니다. 어차피 뭘 해도 다 안 좋아질 텐데 해서 뭐 하겠어?
Well, I think that the future is not determined. It depends on the decisions that we make in the coming days and in the coming years. Being too optimistic make people complacent. They think, oh, no matter what we do it will be okay. So we don't need to make a big effort it will be okay. And when people are pessimistic, they also don't take responsibility because they think, oh, it's pointless. Whatever we do it will be bad. So why make an effort?
낙관이냐 비관이냐, 이게 중요한 게 아닙니다. 책임을 선택하는 겁니다. 지금 우리 앞에는 미래로 가는 여러 갈래의 길이 아직 있어요. 그리고 지금 우리 삶에 우리가 책임을 지는 것, 그게 가장 중요합니다. 왜냐하면 그것이 결국 우리의 미래를 결정할 테니깐요.
I think the important thing is to be not optimistic or pessimistic but responsible that to understand what there are several paths, several roads leading to the future and we need to take responsible action in the present because this is what will determine how the future will be like.
장대익한 시간 반 동안 기자님들의 훌륭한 질문과 작가님의 통찰의 시간을 갖게 돼서 너무나 기쁘게 생각합니다. 오늘 함께해 주신 여러분께 감사의 말씀드리고요. 기자회견을 여기서 마치도록 하겠습니다. 감사합니다.