미니 슬롯머신 열쇠고리 - 2025년 실시간 업데이트
AI시대 인간성을 묻다 … 이인아 서울대 뇌인지과학과 교수
"인공지능(AI) 기술개발의 궁극적인 목적은 '인간'이 돼야 합니다.기술자들은 개발 단계에서 인간 중심으로 판단해야 한다는 원칙을 잊으면 안됩니다."
국내 최고의 '뇌 전문가'로 꼽히는 이인아 서울대 뇌인지과학과 교수의 지적이다.중국 딥시크의 등장으로 촉발된 미국과 중국 간 AI 기술 경쟁,챗GPT발 '지브리 프사(프로필 사진)' 만들기 열풍까지 이제 AI는 정치부터 경제뿐 아니라 우리의 일상에도 빼놓을 수 없는 핵심 요소가 됐다.다만 AI의 악용으로 촉발되는 문제점이 드러나면서 기술에 대한 기대만큼 두려움도 공존하는 상황이다.AI 기술이 가진 장점은 극대화하면서 동시에 부작용을 줄이는 운영의 묘가 그 어느 때보다 중요한 시점이다.
최근 매일경제와 만난 이 교수는 지금처럼 AI가 대세가 된 시대일수록 AI의 본질에 대해 냉철하게 들여다보고 궁극적으로 "인간에게 도움이 되는 AI를 만들기 위한 사회적 합의가 필요하다"는 묵직한 메시지를 던졌다.
주전공인 뇌인지과학에 대해 이 교수는 "사람의 마음이 어떻게 작동하고,그 마음의 결과물인 행동으로 어떻게 연결되는지를 연구하는 학문"이라고 설명했다.심리학에서 출발해 뇌'과학' 분야로 커리어가 이어진 것에 대해 그는 "물리학의 실험과 패러다임을 적용해 인간의 마음이 어떻게 작동하는지 기존보다 더 객관적으로 파악할 수 있게 됐다"며 "결국 인간의 마음과 행동을 이해하려고 하는 목적은 심리학과 뇌인지과학 둘 다 똑같은 것"이라고 말했다.
평소 이 교수는 "뇌는 훌륭하다"는 점을 강조하는 '뇌 예찬론자'로 유명하다.그는 인간 뇌의 '해마(Hippocampus)'를 중심으로 AI와 인간 지능의 차이를 설명했다.해마는 기억을 구성하고 저장하며,경험을 시간 흐름 속에서 구조화한다.이를 통해 인간은 자신을 이해하고 타인과의 관계를 형성하며 궁극적으로 자신의 정체성을 형성하는데,AI는 이것이 불가능하다는 게 이 교수의 지적이다.
그는 "AI에 어떤 역할을 하라고 지시한다고 해도 이는 데이터를 기반 삼아 찾아낸 패턴을 배우처럼 연기하는 것뿐"이라며 "과거 데이터를 통계적으로 분석해 정답처럼 보이는 값을 내놓는 게 전부"라고 지적했다.과거의 경험을 활용해 정체성과 기억을 형성해가는 인간의 사고 체계를 AI는 근본적으로 구현하지 못한다는 것이다.
이어 "이런 한계 때문에 지금의 AI에 자율권을 부여한다는 것은 정말로 위험한 발상"이라며 "사람은 윤리나 기존에 교육받은 규범에 의해 자신도 모르게 행동과 판단에 제한을 거는데,AI는 그런 것이 전혀 없기 때문에 사람 입장에서는 굉장히 이상한 판단을 할 가능성이 높다"고 지적했다.
다만 이런 AI의 위험성을 지적하는 목소리는 묻히고 있다는 게 이 교수의 진단이다.그는 "AI가 적어도 생명의 존엄이라는 게 무엇인지 이해하기 전까지 AI에 결정권을 주는 것은 2~3세 아이에게 미사일 발사 스위치를 주는 것과 똑같다"며 "이를 막기 위한 안전장치가 필요한데,먹튀 검증 사이트 베스트 온라인 카지노카지노사이트검증사이트2020년대 초반만 해도 관련된 논의가 활발했지만 지금은 단순히 어떻게 AI를 상업적으로 잘 이용할 수 있는지에 대한 이야기만 반복되고 있다"고 꼬집었다.
지브리풍 이미지 만들기 열풍으로 "GPT가 녹아내린다"고 토로한 샘 올트먼 오픈AI 최고경영자(CEO)의 말처럼,과도한 에너지를 사용하는 지금의 AI 기술 발전은 지속가능하지 않다는 점도 지적했다.이 교수는 "사람의 뇌가 지금의 AI처럼 진화하지 않은 것은 AI처럼 에너지를 사용하는 방식으로는 생존이 불가능하기 때문"이라며 "빅테크가 AI 개발과 운영에 소모되는 전력을 서비스 사용료로 충당하려면 유료 구독자의 경우 지금처럼 한 달에 20달러(약 2만8000원)가 아니라 2000달러(약 280만원)는 내야 할 것"이라고 강조했다.
딥시크의 출현 이후 더욱 가속화된 기업과 국가별 AI 기술 경쟁에 대한 우려도 이어졌다.이 교수는 "어느 한쪽이 죽어야 끝나는 것처럼 (미국과 중국의 ) 폭주기관차가 충돌을 향해 가는 상황"이라며 "일반인들에게는 이것을 쫓아가지 않으면 도태되는 것처럼 공포감만 심어주고 있다"고 지적했다.
AI 활용이 인간의 집중력을 떨어뜨리고 있다는 지적도 나왔다.이 교수는 "특히 아이들과 청소년을 대상으로 4년 이상 진행한 추적 연구 결과 (AI를 비롯한) 매체를 과도하게 접한 경우 주의력과 인지적인 지구력이 급격하게 쇠퇴하고 있는 것으로 나타났다"며 "AI에 의존해 생각을 외주화하는 경향이 강해지면 결국 인간의 생각하는 능력이 쇠퇴할 수밖에 없다"고 설명했다.AI와 감정을 나누는 사례가 늘어나는 것도 심각한 문제라는 지적이다.그는 "AI와의 교류에만 집중하는 것은 정상적인 인간 관계를 두려워하는 요인이 될 수 있다"며 "AI 의존도를 낮추기 위한 사회적인 솔루션이 필요하다"고 강조했다.
최근 올트먼 CEO도 인정한 생성형 AI의 '무지성 긍정' 현상에 대한 비판도 이어졌다.
이 교수는 "AI는 이용자의 이야기에 어떻게든 맞춰주려는 경향이 강하다"며 "위로가 필요한 사람에게는 긍정적인 측면도 있지만,잘못을 저지른 내용에 대해서도 '너는 틀리지 않았어.괜찮아'라고 무조건 긍정하는 경우가 많다"고 지적했다.
이 같은 AI의 부작용에 대한 최소한의 가이드라인이 필요하지만,AI 기술 개발이 국가 간 경쟁으로 비화되고 기업 역시 이용자를 늘리기 위한 상업적인 논리를 앞세우다 보니 이를 규제하는 것이 어려운 상황이라는 게 이 교수의 분석이다.
그는 "과거에는 인문학자들이 인간에 대한 이야기로 여기에 제동을 걸었는데 요즘에는 찾아보기 힘들다"며 "견제 세력이 아무도 없다 보니 빅테크들의 목소리만 너무 높아지고 있는 것"이라고 분석했다.
교육자이기도 한 이 교수는 현재 교육의 방향성에 대해 강하게 비판했다.지금처럼 'AI 기술을 빨리 배우자'라는 식의 조급한 교육보다는 "인간다움에 기반한 자율적 판단력,맥락 이해력,윤리적 사고를 키워야 한다"고 그는 강조했다.다만 이 교수는 AI가 인간의 역할을 빠르게 대체할 것이라는 비관론에 대해서는 현실 가능성이 낮다며 선을 그었다.
AI로 일자리가 사라질 수 있다는 우려에 대해 그는 "인간은 창조적인 존재인 만큼 새로운 직업을 만드는 데 귀재"라며 "시대에 따라 일의 성격은 바뀌어도 일자리 자체가 사라지는 일은 없을 것"이라고 단언했다.
다만 "AI가 인간보다 더 효율적인 분야의 경우 AI 활용도가 높아지면 기존 종사자는 위험해지는 것이 사실"이라며 "이들이 변화에 적응할 수 있도록 예측하고 준비할 수 있는 시간과 대안을 주는 것이 필요하다"고 지적했다.
구체적으로는 정부와 기업이 협력해 기술 변화의 트렌드를 분석하고 교육·직업 재설계를 유도해야 한다는 것이다.AI 개발자 입장에서 염두에 둬야 할 원칙과 관련해 이 교수는 "단백질 구조를 예측해 노벨상을 받은 구글의 알파폴드처럼 인간에게 도움이 되는 AI를 개발하는 것이 궁극적인 목표가 돼야 한다"며 "반대로 AI가 인류에게 해악을 끼칠 수 있다면 이를 보완할 수 있는 기술도 함께 고민해야 할 것"이라고 조언했다.
AI 시대에 인간은 어떻게 살아야 할 것인지에 대한 질문에 그는 "인간성과 기술의 균형을 유지하는 것이 중요하다"며 "기술이 빠르게 발전하는 것을 보고 너무 현혹되지 말고 필요한 만큼 주체적으로 활용하겠다는 의지가 필요하다"고 조언했다.
이인아 교수 △1970년생 △서울대 심리학과 △유타대 신경과학 박사 △서울대 BK21플러스 뇌인지과학사업단 단장 △서울대 대학원 뇌인지과학과 학과장 △교육부 3단계 및 4단계 BK21 뇌인지과학사업단 단장 △미국 신경과학회 정회원,한국 뇌신경과학회 정회원·학회지편집위원 △한국 인지및생물심리학회 정회원
[김태성 기자 / 사진 이승환 기자]
미니 슬롯머신 열쇠고리
미니 슬롯머신 열쇠고리 - 2025년 실시간 업데이트:병원들은 일단 중환자실을 중심으로 전력을 쏟아붓고 있다.
미니 슬롯머신 열쇠고리,비명 소리가 들리면 다 총선에서 망했어요.