글로벌 베스트셀러 《사피엔스》의 저자
유발 하라리,
6년 만의 신작
《넥서스》로 돌아오다!
독일 베를린에서 화상으로 진행된 기자간담회에서 오간 질문과 답변을 정리했습니다.

Q. 첫 번째 질문입니다. 많은 과학자들이 올해 노벨 물리학상과 화학상이 인공지능 분야 연구자에게 수여된 것을 긍정적으로 평가하고 있습니다. 과학자들은 인공지능을 과학 기술 발전의 수단이나 새로운 도구 정도로 생각하는 것 같은데요. 이런 태도에서 가장 우려되는 부분은 무엇인지 궁금합니다.
A. AI를 이해하기 위해 알아야 할 가장 중요한 것은, AI는 우리가 손에 쥘 수 있는 또 하나의 도구가 아니라는 겁니다. AI는 행위자예요. AI는 스스로 배우고 변할 수 있으며, 스스로 결정하고 스스로 새로운 아이디어를 떠올릴 수 있는 독립된 행위자입니다. 물론 이런 점 덕에 거대한 긍정적 잠재력을 지니고 있습니다. 새로운 과학적 발견을 할 수도 있고, 신약 개발을 할 수도 있으며, 기후 위기와 같은 큰 문제를 해결하는 것을 도울 수도 있습니다.
I think the most important thing to understand about AI is that it is not just another tool in our hands. AI is an agent. It's an independent agent that can change and learn by itself that can make decisions by itself and invent new ideas by itself. This of course has enormous positive potential. It can make new scientific discoveries. It can discover new kinds of medicines. It can help us deal with major problems like climate change.
그렇지만 동시에 굉장한 위험도 따릅니다. 다시 말하지만, AI는 독립적인 행위자이기 때문에 우리가 그동안 개발한 어떠한 기술보다 더 통제가 어려울 것입니다. 우리는 이것이 어떻게 발전하고, 어떠한 결정을 만들 것이며, 어떠한 새로운 아이디어를 떠올릴 것인지 예측할 수 없습니다.
But it also means that it has huge dangers, and that it will be much more difficult to control this technology than any previous technology we created again because it is an independent agent. We cannot predict how it will develop, what kind of decisions it will make, and what kind of new ideas it will invent.
Q. 두 번째 질문입니다. AI는 딥페이크 성착취물 제작에 악용되는 것부터 인간의 일자리를 빼앗는 것까지, 다양한 사회 문제를 일으키고 있습니다. 또한 AI가 이미 존재하는 젠더 및 계급적인 차별을 반복, 강화하는 역할을 하면서 인류의 반복된 불평등 문제를 새로운 방식으로 답습하고 있습니다. 이러한 생각이 맞다고 보는지, 인류 문명의 흐름에서 AI가 야기할 새로운 문제들은 무엇인지 궁금합니다. 또한, AI의 최선과 최악의 시나리오는 어떤 모습일지 하라리 교수님의 말씀을 듣고 싶습니다.
A. 아까도 말씀드렸듯, AI는 제약과 교육 등의 분야에서 엄청난 긍정적 잠재력을 가지고 있습니다. 하지만 이제 우리는 AI도 편향될 수 있다는 것을 다들 알고 있지요. AI가 처음 개발되었을 때, 사람들은 이것이 그냥 과학이고 컴퓨터라고 생각했습니다. 심리도 없고, 신화도 없으니, 편향될 수 없다고 생각했습니다. 하지만 지금 우리는 AI를 훈련시키는 데이터가 편향되어 있다면 AI도 편향될 확률이 높다는 것을 알게 되었죠. 그리고 세상에 존재하는 거의 모든 데이터베이스에는 여성이나 특정 인종, 또는 성적 소수자에 대한 어떠한 편견이 포함되어 있습니다.
So as I said there is enormous positive potential in fields from medicine to education, but we know by now that AI can be biased. When AI was first developed, people thought it's just mathematics, it's just a computer, it has no psychology, it has no mythology, it cannot be biased. But now we know that because of the data on which the AI is trained, if the data is biased, the AI is likely to be biased. And almost all data sets in the world, all databases, they contain contain biases against women or against certain ethnic groups or against gay people. It's in the data.
하지만 우리는 AI의 탈편향을 위해 노력하고 있죠. 불가능한 문제가 아닙니다. 사회 평론가들, 철학가들, 그리고 역사가들의 의무는 이러한 문제를 지적해 엔지니어들과 정치인들, 그리고 사회가 문제를 해결할 수 있도록 하는 것입니다.
However we are also working on ways to debias the AI. It's not an impossible problem. The job of social critics, of philosophers, of historians is to point out the problems so that engineers and legislators, society can solve the problem.
더 큰 불평등 문제는 전지구적인 차원에서 일어날 것이라고 생각하는데요. 19세기 산업혁명 당시 일어난 일이 21세기에 AI 관련해서 또 일어나지 않을까 하는 우려도 있습니다. 산업혁명 당시 먼저 산업화가 된 소수의 국가들이 다른 나라를 정복하고 착취했죠. 정복당한 국가들이 독립 후 차이를 따라잡는 데는 거의 1세기 이상이 걸렸습니다.
I think the bigger problem with inequality will actually be on the global level because the same thing that happened in the Industrial Revolution in the nineteenth century might happen again with AI in the 21st century. In the Industrial Revolution, the few countries that industrialized first, they went to conquer and dominate and exploit the whole world and it took other country, more than a century to liberate themselves and to close this gap.
같은 식으로, 지금 AI 혁명을 이끌고 있는 몇몇 국가가 자신들이 가진 엄청난 우위를 이용하여 세계에 다른 국가들을 지배하거나 착취하게 될 수도 있습니다. 저는 이것이 AI에 관련하여 우리가 해결해야 할 더 심각한 불평등 문제라고 생각합니다.
And the same thing might happen again when the few countries who lead the AI revolution, they might use their immense advantage to dominate and exploit all the other countries in the world. And this is the bigger issue of inequality that we will have to deal with with regard to AI.
Q. 세 번째 질문입니다. 교수님께서는 《넥서스》에서 “실리콘 장막이 인간을 한 집단과 다른 집단으로 분리하는 것이 아니라, 모든 인간을 인간의 새로운 지배자 AI와 분리할지도 모른다” (20쪽) 라고 내다봤습니다. 하지만 결국 거대 기술 기업이 알고리즘을 운용하고 데이터를 수집하고 있지요. 그렇다면 설명 AI 자체가 법인격이 된다고 하더라도, 이를 소유하고 운용하는 것은 거대 기술 기업일텐데요. 실리콘 장막으로 나뉘는 것은 AI 대 모든 인간이 아니라, 거대기술기업을 장악한 인간 집단 대 나머지 인간이 아닐까, 하는 질문입니다. A. 그런 측면도 분명히 있습니다. 특히 AI 혁명 초기에는 AI라는 신기술을 이해하고 만들며 통제하는 소수의 사람들이 엄청난 부와 권력을 손에 넣게 되었습니다. 이 사람들과 나머지 사람들을 사이에 어떠한 실리콘 장막이 쳐질 수 있겠죠.
This is one aspect of it, especially at the earlier stages of the AI revolution. So this kind of silicon curtain will divide some humans from other humans, that a small group of humans who understand and engineer and control the new technology. They will have immense wealth and also immense power.
그렇지만 10년, 20년이 지나면서 기술이 발전하게 되면, AI를 만들었던 사람들조차 AI를 통제하지 못하는 시대가 올 수도 있습니다. 아까도 말씀드렸지만, AI는 그냥 도구가 아닙니다. 주체성을 갖춘 행위자이고, 우리보다 더 똑똑한 독립적 행위자를 우리가 좌지우지하는 것은 굉장히 어려울 것입니다. 그리고 이러한 AI들은, 지금 주인이라는 사람들을 어떻게 조종할 수 있을지 쉽게 배울 수도 있고요.
But as the technology matures in the decades ahead even these humans could lose their power to the AI that they are developing. Because again the AI is not a tool, it is an agent and it is extremely difficult to control an agent which is more intelligent than you are. And the AI could and quite easily learn how to manipulate its supposed human masters.
인간 독재자들도 이런 AI의 위험에서부터 자유롭지 못합니다. 아마 지금은 독재자들이 AI를 이용해 자국민에 대한 통제를 강화하고, 감시하고, 스파이하면서 행복해할지도 모르겠습니다. 그런데 역사를 살펴보면 모든 독재자들의 가장 큰 위협은 늘 자기 밑의 수하들에게서 온 것이었습니다. 이들에게 암살을 당해 정권이 무너지거나, 부하들에게 조종 당해서 꼭두각시로 전락하거나. 역사상 모든 독재자의 말로는 늘 그랬습니다.
And this is even a danger to, you know, many human dictators who are now happy to try and use AI to strengthen their control and to survey, to monitor, to spy and control their population. But the biggest danger for dictators throughout history was that their own subordinates might become too powerful and either assassinate and topple them or manipulate them and turn them into puppets. This is the biggest danger for every dictator in history.
아마 AI 입장에서 이 독재자를 마음대로 좌지우지하기는 쉬울 겁니다. 이 독재자는 일개 한 사람이고, 독재자들 편집증적일 확률이 매우 높기 때문입니다. 독재자들이 AI를 가지고 모두를 통제하는 것이 아니라, AI가 독재자를 어떻게 조종하는지 배워 AI가 독재자를 통해서 국민들을 통제하는 그런 사태가 올 수도 있습니다.
And for the AI, it will become quite easy to manipulate these dictators, because they are just single individuals who tend to be also very paranoid individuals. So instead of the dictator using the AI to control everybody, the AI will just learn how to manipulate the dictator and control the country through this manipulation.
어떻게 보면, AI의 잠재적 위험에 더 취약한 것은 민주 국가보다는 독재 정권입니다. 예를 들어 AI가 남한의 대통령을 좌지우지하게 됐다, 그런다고 해서 나라 전체가 AI 통제 하에 놓이지는 않을 것입니다. 왜냐하면 대통령의 권력을 견제하는 여러 장치들이 마련되어 있으니까요. 반면 만약에 AI가 김정은을 그대로 좌지우지하게 됐다, 그렇게 되면 그걸로 그냥 끝일 겁니다. AI가 북한을 다스리게 됩니다.
In this sense, dictatorships are actually in greater danger of an AI gaining control than democracies are. If an AI learns how to manipulate the president of South Korea, for instance, it still doesn't control the country because it has democratic checks and balances. But if it learns how to manipulate Kim Jong Un, that's it. It controls North Korea.
Q. 네 번째 질문입니다. 교수님께서는 ‘인류가 통제 불가능한 기술인 AI’를 소환했지만, 사회의 노력에 따라 AI의 활용과 그 결과를 인류가 통제할 수도 있다며 열린 결말을 제시했습니다. 그런데 갈수록 복잡도와 자유도가 높아져가는 사회에서 통제불능 기술을 경우에 따라 통제가능하다고 보는 것은 지나치게 낙관적 전망이 아닌가, 하는 질문입니다. A. 그것이 우리가 직면한 가장 큰 문제입니다. 그러나 적어도 현 시점에서의 가장 큰 문제는, AI가 아니라 인간 사회의 분열일 것입니다. 만약 인류가 신기술을 잘 다루기 위하여 협력한다면, 우리는 디스토피아의 위협 없이 AI의 엄청난 잠재력을 활용할 수 있을 것입니다.
This is the main challenge. But the main challenge really is, at the present state at least, is not the AI but the divisions within human society. If humans work together to restrain and control this new technology, we will succeed in preventing dystopia and in harnessing the immense potential of AI.
그러나 국제적 긴장이 계속 고조되고, 인류가 계속 싸운다면 이 기술을 통제하는 것은 불가능할 수도 있습니다. 정치에서 가장 오래된 법칙 중 하나를 꼽으면 ‘분할해서 지배하라’ (divide and rule) 일텐데요. 한 무리의 사람들을 갈라놓으면 그들을 지배하는 것이 더 쉽다는 것이지요.
But if the international tensions keep rising, if humanity fights among itself then it will not be possible to control this technology. And you know maybe the oldest principle in politics is ‘divide and rule’. If you manage to divide a group of people against each other it's easy to rule them.
그러니까 문제는, 만약 사람들이 계속 갈라져 다툰다면 AI가 우리 모두를 지배하는 것은 어렵지 않을 것이라는 겁니다.
So now the question is if humans, if humanity as a whole are divided against itself then it will be easy for AI to rule all of us.
Q. 다섯 번째 질문입니다. 기후 변화에 대응하고 전쟁을 막는 것도 각국의 협조를 이끌어내는 것이 쉽지 않은데요, 교수님의 표현처럼 AI 혁명이 ‘치명적 실수’가 되지 않게 하려면 현재 가장 시급한 국제적 협력이 무엇이라고 보십니까? 또한, 각 국가마다 AI 관련 규제나 법안, 가이드라인 등을 만들고 있습니다. 우리에게 국제 규제 기관 같은 것이 필요할까요? 필요하다면 가장 중요한 기준은 무엇이 되어야 할까요? A. 물론 규제에 대한 이야기를 해볼 수는 있지만, 저는 규제 전에 거쳐야 할 단계가 하나 더 있다고 봅니다. 일단 AI를 관찰하고 이해하는 것이죠.
We can talk about regulation but there is a step that comes before regulation. The first step we need to make is simple observation and understanding.
대부분의 사람들, 사실 거의 대부분 정부도 AI 혁명이 무엇이고, 무슨 일이 일어나고 있으며, 이것이 어떤 결과를 불러일으킬 것인지 전혀 모르고 있습니다. 사실 AI 기술은 아주 극소수의 회사, 그리고 미국과 중국 같은 몇 국가에 집중되어 있습니다. 대부분의 사람들, 정부들은 그냥 무슨 일이 일어나고 있는지를 모릅니다. 그렇기 때문에, 우리가 성급하게 규제를 이야기하기 전에 우리는 문제를 이해할 필요가 있다는 것이지요. 극소수의 회사나 국가가 주는 AI에 대한 정보를 우리가 과연 신뢰할 수 있을까요?
At the present moment, most people in the world and even most governments don't understand what is the AI revolution, what is happening, and what might be the consequences. The knowledge about AI is concentrated in the hands of a few companies, in a very small number of countries mainly the United States and China. Most people and most governments just don't know what is happening. Before you rush to adopt regulations, first of all we need to understand the problem. How can you trust the information which these few companies and these few countries are giving?
그러기 위해서 저는 국제 기구를 설립해야 한다고 생각하는데요, 이 기구는 통제가 아니라 관찰을 하는 곳입니다. 무슨 일이 일어나고 있는지 관찰하고, 이해하고, 그것에 대한 객관적인 평가를 일반 대중과 여러 나라의 정부에 제공할 수 있는 그런 기구입니다. 아마 이런 기관은 굉장히 많은 자금을 필요로 할텐데요. 왜냐하면 이런 기관은 굉장히 뛰어난 인력도 필요할 것이고, 첨단 기술도 갖춰야 할 것이기 때문입니다.
So I would say the first step is to establish an international organization which is an AI observatory. It doesn't regulate. It just observes, understands what is happening, and gives an objective assessment of what is happening in AI to the people of the world and to the different governments. And this kind of organization would need enormous amount of funding in order to retain some of the best human talent and also have the cutting edge technology.
각국의 정부들은 어느 정도의 자금을 공여를 하겠다고 할텐데, 자금을 지원하기로 한 국가는 적어도 다른 국가가 의무를 다하고 있는지 알 수 있게 되겠지요. 일단 이런 조직이 생겨 각국 정부와 일반 대중이 보다 많은 지식을 갖추고 나면 이제 필요한 규제에 대한 이야기를 심도있게 할 수 있을 것입니다.
But this is something that governments that agree to finance this organization they can at least know that the other governments are living up to their obligations. If you have like a hundred governments who each says ‘I will give a billion dollar’, ‘I will give 10 billion dollars’, you can easily know whether the governments are actually doing it. Once we have this organization and it provides knowledge to more governments to more people then we can discuss in greater depth the necessary regulations.
지금 당장 실행할 수 있는 규제 두 가지가 있기도 합니다. 첫 번째는 알고리즘을 소유하고 운영하는 회사가 자신들의 알고리즘 때문에 일어난 일에 대해서 법적 책임을 질 수 있게 하는 겁니다. 이미 기업들이 제조물에 대한 법적 책임을 지고 있는 것과 마찬가지로요.
But two regulations that might be implemented immediately are, first that companies should be liable for the actions of their algorithms the same way that companies are always should be liable for their products.
두 번째는 AI가 사람인 척하는 것을 금지하는 것입니다. AI는 절대로 사람인 척을 하면 안 됩니다. 물론 어떤 상황에서 인간과 AI가 대화할 수는 있습니다. 예를 들어 AI 의사가 인간을 진단하는 등의 경우가 있겠죠. 단 어떠한 경우에도 AI는 대화 상대가 AI임을 명확하게 밝혀야지, 인간인 척을 하는 것은 절대 안 됩니다.
And the second key regulation is to ban counterfeit humans, fake humans. AI should never pretend to be human beings. AI is are welcome to talk to converse with people in different situations like you talk with an AI doctor, for instance. But in all these cases the AI should clearly identify itself as an AI and never pretend to be a human being.
그 이유는 지금 많은 민주주의 국가에서 공론장이 붕괴하고 있기 때문입니다. 사람들은 이성적인 대화를 나누는 것을 점점 더 힘들어가고 있는데요, 이것은 어느 정도는 ‘봇’(bot)이 인간들의 대화에 끼어들고 있으며, 또 봇들이 음모론과 가짜 뉴스, 사람들의 분노를 자극하는 콘텐츠를 적극적으로 퍼뜨리고 있기 때문입니다. 사람들이 어떠한 플랫폼에서 소비하는 시간, 즉 사용자 참여 (user engagement)를 늘리기 위함이죠. 회사에는 좋은 일이겠지만, 사람들이 이성적인 대화를 나누는 능력을 박살내고 있습니다. 그 능력이 민주주의의 근간이 되는데 말이죠.
One reason is what is happening we see in politics in democracies around the world, that the democratic conversation is breaking down. People are losing the ability to hold a rational conversation and this is to some extent because bots are manipulating the human conversation algorithms and bots promote and spread conspiracy theories and fake news and outrageous content in order to increase the user engagement that the time that people spend on the platform which is good for the companies but which destroys the ability to have a rational conversation among the public which is the basis for democracy.
민주주의라는 것이 사람들이 둥그렇게 서서 대화를 나누는 것이라고 한다면, 지금은 한 무리의 로봇이 끼어들어 아주 큰 목소리로, 매우 설득력있게, 아주 감정적으로 이야기를 하기 시작하는 것입니다. 근데 그 와중에 누가 로봇이고 누가 사람인지를 모르는 것이지요.
And we can imagine it that democracy is like a group of people standing in a circle having a conversation and suddenly a group of robots enter this circle and start talking very loudly, very persuasively, very emotionally and you don't know who are the robots and who are the people.
민주주의라는 것이 인간 사이의 대화를 바탕으로 한다면, 민주주의를 지키기 위해서라도 우리는 우리가 로봇이 아닌 사람과 대화를 나누고 있다는 것을 알 수 있어야 합니다. 아니면, 수많은 봇들이 특정 음모론을 비롯한 어떠한 이야기를 퍼나르려고 할 때 사람이 아닌 로봇이 하는 짓이라는 걸 알 수 있어야 하고요.
So if democracy is supposed to be a conversation between humans in this situation collapses and to protect the democratic conversation, you need to know that you are talking with a human being and not with a robot. Or if a lot of bots are trying to push a certain conspiracy theory or a certain story of any kind you need to know these are robots doing it this is not human beings.Q. 지금 벌어지고 있는 이스라엘-팔레스타인 전쟁에서도 AI가 사용되고 있는데요, 이런 문제를 보았을 때 AI에 대한 규제가 우선되어야 하지 않을까 싶지만 지금은 국제적인 규제가 전혀 이루어지지 않고 있습니다. 여기에 대해서 어떻게 생각하는지요.
A. 이미 우리는 AI가 전쟁의 양상을 바꾸고 있는 것을 목격하고 있습니다. 사람들은 보통 전장을 누비는 킬러 로봇을 볼 것이라고 생각하는데, 사실 전쟁에서 가장 먼저 보게되는 AI는 살인 로봇이 아닙니다. AI는 목표물을 정하는 일을 합니다. 인간이 어디에 총구를 겨눌지를 정해주는 것이지요. 그러니까, AI가 엄청난 양의 정보를 처리해 목표물을 식별하고, 인간이 그 목표물을 공격하는 것입니다.
We already see that AI is changing the face of warfare and people thought that we will see killer robots in the battlefield but actually the first place that we see AI in war is not these killer robots. The AI is choosing the targets. It's telling the humans what to shoot. I mean it goes over enormous amounts of information and it identifies targets that then the humans shoot.
당연히 이것은 굉장히 위험할 수 있습니다. AI가 목표물을 맞게 설정했는지 어떻게 알 수 있을까요? 윤리적인 지점을 고려해야 하는 전쟁법규를 지키고 있는지는 어떻게 알 수 있을까요? 분명히 규제가 필요한 부분입니다.
And this of course is a potentially very dangerous development. How do we know that the AI is choosing the right targets? How do we make sure that it obeys the laws of war that it takes ethical considerations into account and we definitely need regulations about that.
문제는 양측이 무력 충돌을 하는 상황에서 둘 다 AI에 의존하게 되면, AI가 AI를 상대로 전쟁을 하는 상황이 된다는 점입니다. AI에 의존해야 한다는 압박감은 커지기만 할 것이고, 사람들이 AI가 전쟁법규를 지키고 있는지 점검하는 것은 점점 더 어려워지겠죠.
And the big problem will be when both sides in a conflict rely on AI and then it's kind of AI making a war against the AI on the other side and then the pressure to rely on the AI will only increase because people will have less and less time to check that the AI is obeying the laws of war.
그리고 마지막으로 드릴 말씀은, 이스라엘-팔레스타인 전쟁은 AI 시대에도 전쟁은 인간이 가진 믿음과 신화 때문에 초래된다는 것을 보여주고 있다는 점입니다. 자원이 부족해서 일어난 충돌이 아닙니다. 지중해와 요르단 강 사이엔 집과 학교, 병원을 지을 땅이 충분합니다. 에너지도, 식량도, 물도 충분하죠. 그런데 왜 싸울까요? 각기 다른 신화가 만든 상상력을 믿기 때문입니다. 양쪽 모두 ‘신이 우리에게 이 땅에 대한 전적인 권리를 주었고, 그러므로 타인들과 나눌 수 없다’는 믿음을 갖고 있기 때문이죠.
But maybe the last thing I say is that, this war between Israelis and Palestinians shows us that even in the age of AI it is still human beliefs and human mythologies that are responsible for the conflicts in the world. The reason for the conflict is not an objective shortage of resources. There is enough land between the Mediterranean sea and the Jordan River to build houses and schools and hospitals for everybody. There is enough energy, there is enough food, there is enough water. Why do people fight? Because they believe in the imagination in different mythologies. Each side believes that God gave us all this land and we cannot share it with the other people.
이번 전쟁에서 AI는 사람을 죽이는데 사용되었지만, 이것조차 사람들이 수천 년 전부터 믿어온 신화 때문에 초래된 부분이 있다는 것이고, 이것이 역사, 그러니까 아주 오래된 역사라고 할지라도 AI 시대에 여전히 중요한 이유입니다.
And so this conflict which people use AI to kill each other, it is still fueled, it is still caused by mythological stories from thousands of years ago which is why history even ancient history is still very very relevant even in the age of AI.
Q. 여섯 번째 질문 드리겠습니다. 개인들은 고도화된 AI의 상용화로 인해 사회 문제를 고민하기보다 이 변화에 빠르게 따라가야 할 것 같은 불안감을 더 크게 느끼고 있는 것 같습니다. AI가 만들어내는 환경 오염을 걱정하기보다 AI가 대체할 수 없는 노동이 무엇인지 고민하며 자기계발적인 생존 논리에 집착하게 되는 등 이런 문제들을 더 고민하고 있습니다. 이러한 개인의 불안에 대해서 어떻게 생각하는지, 어떠한 태도로 타개해 가면 좋을지 의견을 부탁드립니다.
A. 제 생각엔 우리 삶의 속도가 점점 빨라지고 있고, 여기에 AI가 기여를 하고 있다는 것이 문제입니다. AI는 변화의 속도를 계속 가속화하고 있고, 개인은 불안해질 수밖에 없습니다. 모두가 ‘내가 더 빨리 달려야 해, 아니면 뒤쳐질 거야’ 라고 느끼는 것이지요.
I think the general problem is that the pace of life keeps accelerating and that AI is contributing to this. It's making the pace of change faster and faster which creates a lot of anxieties for individuals. Everybody feels ‘I must run faster otherwise I will be left behind’.
그리고 사실 이것이 AI 혁명의 가장 핵심적인 부분입니다. 인간종이 가지고 있는 유기체의 속도와 AI가 가진 비유기체의 속도의 차이가 만드는 긴장감이 있다는 것입니다.
And this is really one of the most fundamental things about the AI revolution. It's the tension between the organic pace, the biological pace of human life, and the inorganic or non-biological pace of AI.
유기체는 주기가 있죠. 유기체에겐 밤과 낮이 있고, 여름과 겨울이 있고, 활동하는 시간과 쉬는 시간, 자는 시간이 있습니다. 켜질 때가 있고 꺼질 때가 있다는 것이지요. 그런데 AI와 컴퓨터는 이런 주기가 없습니다. 쉬는 시간이나 자는 시간도 필요하지 않습니다. 그들이 자리를 차지하면서, 그들이 의사 결정권자가 되고 있습니다. AI가 시스템에 점점 더 편입되면서 속도는 점점 빨라지고 있고, 이제는 우리가 항상 깨어있도록 내몰고 있습니다.
Organic beams and organic systems, they work by cycles. There is day and night, Summer and Winter, time for activity and time for rest, time for sleep. We are sometimes on and we are sometimes off. AI and computers, in general, they are always on. They don't work by cycles. They don't need time to rest or to sleep, And as they take over, they become the decision makers. They become integrated into more and more systems so they constantly increase the pace, and try to force us to be on all the time, to be active all the time.
금융계의 예를 들어보죠. 금융 시스템은 전통적으로 꺼질 때가 있고 켜질 때가 있었습니다. 월스트리트 같은 경우에도 아침 아홉 시 반부터 오후 네 시까지, 월요일부터 금요일까지만 돌아갔습니다. 그게 다입니다. 밤이나 주말, 크리스마스와 같은 휴일에는 돌아가지 않았어요.
So you know to take an example from the financial system. Traditionally the financial system was sometimes on and sometimes off, like the market in wall street. It is open only 9:30 in the morning until 4 o'clock in the afternoon, Mondays to Fridays. That's it. It's off for the night and for the weekend and for various holidays like Christmas.
그런데 이제 AI가 금융계에 진입하면서 시장이 항상 돌아가게 되어버렸습니다. 은행가나 투자자들은 잠을 자거나 휴가를 가고 싶어도 ‘나만 뒤처지는 것 아닌가’라고 생각하는 것이지요. 항상 깨어있어야 한다는 엄청난 압박감은 단지 불안감을 유발하는 정도가 아니라, 인간에게 정말 위험하고 또 파괴적이기도 합니다. 동물이나 인간종 같은 유기체를 계속 깨어있게 한다면, 결국 죽어버리고 말테니까요.
Now, as AI take over, the financial system the market is constantly on and a human being like a banker or an investor that wants to go to sleep or want to go on vacation, they feel ‘I'm being left behind, I'm missing’. So there is immense pressure to be on all the time to be active all the time which is not just creates anxiety but it is really dangerous and destructive to humans. If you force an organic being, an animal, a human being to be active all the time, it eventually collapses and dies.
이러한 위기는 더 큰 생태계 차원에서도 일어나고 있습니다. 우린 생태계가 위험에 빠져있다는 걸 알고 있으며, 온실가스 배출을 줄여 기후 재앙을 막는 등 인간이 생태계에 미치는 영향을 줄이기 위한 많은 노력이 있었죠. 그런데 지금은 점점 더 많은 에너지가 AI 개발에 쓰이고 있습니다. AI 개발에 드는 에너지가 너무 크기 때문에 몇 년 내엔 에너지 총 생산의 10%, 몇 십년 후에는 20%까지 AI 개발에 쓰일 것이라는 예측이 있지요.
And it even happens on the biggest level of the ecological system. We know that the ecological system is in crisis, and there was a lot of effort to reduce the human impact on the ecosystem, to reduce greenhouse gas emissions in order to prevent catastrophic climate change. But now more and more energy is just going to develop AI. The estimates are that within a few years 10 percent and then 20 percent of all energy production in a few decade will go just to develop AI, because it consumes enormous amounts of energy.
그리고 미국과 중국을 비롯한 여러 나라들이 AI 경쟁을 가속화하면서, 제가 아는 기업의 수장이나 정부 수반들이 “생태계 이야기를 할 때가 아니다. AI를 개발하고 경쟁에서 이기려면 에너지 생산을 더 많이 해야 한다.”라고 말하는 걸 듣곤 합니다. 그리고 “우리가 AI 경쟁에서 이기고 AGI (Artificial General Intelligence; 인공일반지능, 인간과 같은 수준의 지능을 가진 인공지능)를 개발하면 AI가 문제를 해결해줄거야” 라고 하기도 하고요. 나중에 천천히 가기 위해 지금 더 빨리 움직여야 한다, 인류가 기후에 미치는 영향을 줄이기 위해 더 많은 에너지를 소비해야 한다? 이것은 굉장히 위험한 사고방식입니다.
And as the AI race between the U.S. and China and other countries accelerates so I hear more and more people I know, the heads of the companies, the heads of the governments, they say “we cannot deal with the ecological crisis. We just need more and more energy production in order to develop AI and win the AI race.” And then, “when we win the AI race and we have AGI, Artificial General Intelligence, the AI will solve the ecological problem.” But this is a very dangerous way of thinking that in order to slow down we have to move faster, in order to reduce our impact on the climate we actually have to spend more energy.Q. AI가 인간의 많은 일자리를 변화시키고 대처할 것으로 전망이 된다면 아이들에게 어떤 능력을 키워주는 데 집중해야 할 것으로 보시는지 궁금합니다.A. 두 가지 정도 말 할 수 있겠네요. 20년 후에 인력 시장이 어떤 모습일지는 아무도 모르고, 당연히 우리가 무슨 능력을 계발해야 하는지도 아무도 모릅니다. 예컨대 “아이에게 코딩을 가르쳐야지” 같이, 어떤 기술을 가르쳐야 하는지 너무 좁게 정의를 하면 모든 게 물거품이 될 수도 있습니다. 20년 쯤 후에는 AI가 코딩을 너무 잘하게 되어서 인간 프로그래머가 필요하지 않을 수도 있기 때문이죠.
About two things to say about that. Nobody knows what the job market would look like in 20 years so nobody knows what skills will be needed to develop. If you focus on a very narrow set of skills like you say ‘okay, I‘ll teach children how to code computers’, maybe you lose everything because in twenty years maybe AI can code much better than any human beings and you don't need human coders.
그렇기 때문에 아주 구체적인 기술에 집중하기 보다는 전반적인 역량의 강화에 초점을 맞추고, 특히 머리와 가슴, 손의 균형을 찾는 것이 중요합니다. 우리는 지적 능력도 필요하고, 감수성도 필요하고, 사회성도 필요하며 신체적 능력도 필요로 합니다. 아마도 이런 능력을 갖춘 사람들이 어떠한 특정 기술만을 갖춘 사람보다는 직업을 가질 수 있는 확률이 더 높아지리라 봅니다.
So instead of focusing on a very narrow set of skills it's best to invest in a wide range of skills and especially find a good balance between the brain the heart and the hands. We need intellectual skills we need emotional and social skills of the heart and we need physical skills. People with a broad set of skills have a much better chance of staying relevant and of having jobs than people who focus on something very narrow.
두 번째는 유연성입니다. 특히 정신적으로 유연해야 하는데요, 아까도 말했듯 20년 후에 인력 시장이나 경제가 어떻게 될지는, 그게 굉장히 불안정하고 유동적이라는 것만 빼고는 아무도 모릅니다. 아마 AI가 발전함에 따라 (시장은) 굉장히 빠르게 변화하게 될 것이고, 알고 있던 직업들이 사라지고, 새로운 직업이 생겨나고, 그렇게 새로 생긴 직업들도 계속 변해갈 것입니다. 사람들은 평생에 걸쳐 끊임없이 배우고 새로운 모습을 보여주어야 할 것이고요. 마흔 살에 새로운 직업을 얻어도 쉰 살에 완전 다른 직업을 얻어야 할 수도 있고, 그러기 위해서 우리는 정신적으로 아주 유연해야겠죠. 교육은 우리가 인생 전반에 걸쳐 계속해서 공부하고 또 변화할 수 있도록 도와주어야 합니다.
And the second principle is flexibility and especially mental flexibility because again we don't know how the job market or the economy will be in 20 years except that it will be very volatile, very fluid. It will continue to change very rapidly as AI develops so old jobs will disappear, new jobs will emerge, the new jobs themselves will keep changing all the time. People will need to keep learning to keep reinventing themselves again and again throughout life. You have one job at forty, you have to kind of reinvent yourself and you have a completely different work at fifty and for that we need a lot of mental flexibility . How to keep learning, how to keep changing throughout life... Our education should give us the tool to do that.
Q. 하라리 교수님 개인에 대한 질문입니다. 교수님 또한 늘 켜져 있는 AI 못지않게 많은 독서량을 유지하며 지적 결과물을 내놓는 것 같습니다. 하루에 몇 시간씩 책을 읽고, 몇 시간을 글을 쓰는지 궁금합니다. 이번 《넥서스》는 6년 만의 신작인데, 실제로 작업하는 데 시간이 얼마나 걸렸는지도 궁금합니다.
A. 《넥서스》를 쓰는 데에는 5~6년 정도가 걸렸습니다. 저는 보통 하루에 여섯 시간에서 여덟 시간 정도 책을 읽고 글을 쓰며 이 책 작업을 했는데요, 저는 휴식 시간도 충분히 갖고 있습니다. 저는 명상을 합니다. 매일 두 시간씩 명상을 하고, 매년 한두 달 정도는 명상을 하기 위해 떠납니다. 이메일도 없고 책도 없고, 완전히 차단된 상태에서 명상만 할 수 있도록요.
It took me something like five or six years to write Nexus and every day I spend between I say six and eight hours in reading and writing and working on the book but I also take a lot of time off. I do meditation. I meditate for two hours every day and every year I go on a long retreat of meditation of between one month and two months where completely disconnect no emails not even books just to meditate.
저는 정보는 마음이 먹는 음식이라고 생각을 합니다. 과식을 하면 건강을 해치는 것처럼, 너무 많은 정보를 받아들이면 마음도 병이 들겠죠. 음식을 먹으면 소화를 할 시간이 필요합니다. 우리가 하루 종일 먹지 않는 것처럼, 마음의 음식도 소화하고, 생각하고, 명상할 시간이 필요합니다. 정보를 받아들이는 데에도 시간을 쓰지만, 정보를 소화시키는 데에도 꽤 많은 시간을 쓰고 있습니다.
And I think that information is like food for the mind. In the same way that if you just if you eat too much food your body becomes unhealthy. If you put in too much information your mind also becomes unhealthy. With food for the body we need time to digest. We don't just eat all the time also with food for the mind we need time to digest, to think, to meditate. So I spend some time eating information but then I also spend quite a lot of time just digesting the information.