캔자스시티 로열스 - 2024년 실시간 업데이트
[전문] 2024 사람과디지털포럼 연사 토론
인공지능 관련 첨예한 이슈 놓고 4인 4색 토론
‘AI가 자신의 일을 대처할까’질문에
4인 모두 “내 일은 절대 불가능” 응답
AI는 인간의 일을 효율적으로 돕는 도구에 불과
가짜 질문 거르고,좋은 질문 하는 능력은 인간뿐인공지능(AI) 기술의 본질은 무엇일까?인공지능이 인간의 직업을 대체할까?인공지능의 품질은 어떤 기준으로 평가해야 할까?지난 12일‘사람 넘보는 AI,인간가치도 담아낼 수 있을까’를 주제로 열린‘제3회 사람과 디지털 포럼’의 원탁토론에서 나온 질문들이다.전치형 카이스트 교수가 이끈 토론에서 기조연사로 참여한 테드 창 작가,최예진 미 워싱턴대 교수,아베바 비르하네 아일랜드 트리니티칼리지 교수,게리 마커스 미 뉴욕대 교수 등 세계적 석학 4명은 인공지능에 대한 핵심 이슈들을 놓고 90분 동안 열띤 토론을 벌였다.컴퓨터 공학자,인지과학자,과학소설 작가 등 각자의 위치에 따라 미묘한 시각차도 드러났지만,캔자스시티 로열스인공지능에 대한 혼돈과 불안을 해소하는 데 도움될 통찰도 나왔다.인공지능 관련 첨예한 이슈가 망라된 토론의 전문을 정리해 싣는다.
인공지능 도구는 다른 기술과 어떻게 다를까?
전치형 인공지능은 도구입니다.그런데 인공지능을 단순히 도구라고 규정하기 어려워지고 있습니다.인공지능은 하나의 도구에 불과할까요?만약에 도구라면 어떤 도구일까요?도구가 아닌 다른 무언가일까요?
마커스 저는 인공지능이 도구라고 생각합니다.하지만 정부와 일반대중은 인공지능을 마술이라고 잘못 이해하는 것 같아요.인공지능은 수많은 데이터세트와 알고리즘이 모여 있는 소프트웨어에 불과합니다.대부분의 인공지능 도구는 데이터를 통해서 학습하고 그것을 토대로 작동합니다.통계와 확률적인 패턴에 기반을 둔 도구이기에 제대로 학습된 곳에서만 작동할 수 있고,새로운 환경에서는 잘 작동하지 않습니다.
비르하네 인공지능은 그 어떤 도구보다 영향력이 큰 중요한 도구입니다.그래서 잘 만들어져야 하고 책임성을 위한 메커니즘이 수립되어야 합니다.기술이 개발·도입되고 나서 오류나 실패가 발견되었을 때 책임을 물을 수 있어야 하기 때문입니다.
최예진 워싱턴대 교수
“AI는 특별하며 대단한 도구…‘창의적 답변’생성과정 과학자들도 몰라
AI 결과물,인간이 제어불가능…출시전 모델 사전검증 절실”
테드 창 SF 작가
“AI 기술 결정권은 빅테크에…인간은 주어진 것을 사용할 뿐
신기술 도입시 도덕적 책임 회피목적 아닌지 자문해야”
최예진 인공지능은 생각보다 대단한 도구입니다.하지만 과학자들은 이 도구를 어떻게 통제할 수 있을지 잘 모릅니다.안전성에 허점이 있기 때문에 악용될 소지가 있습니다.우리는 인공지능이라는 막강한 도구를 제대로 활용할 수 있는 방법을 아직 모릅니다.지금 인공지능에 대해 과도한 기대도 있고,과대광고도 있습니다.하지만 이에 대한 이해가 아직 충분하지 않다고 생각합니다.저는 인공지능이 특별한 도구이며,이 도구를 진지하게 받아들여야 한다고 생각합니다.
테드 창 저는 이 질문이‘인공지능은 도덕적으로 중립적인가’라는 질문과 유사하다고 생각합니다.많은 이들은 기술은 하나의 도구로서 중립적이기 때문에 인간의 의도와 활용에 따라 긍정적일 수도,부정적일 수도 있다고 이야기합니다.하지만 수류탄이나 지뢰를 도덕적으로 중립적이라고 말할 수 있을까요?또 지뢰 제거 회사에서 일하는 경우와 같이 특정 입장에 있을 경우,중립적일 수 있을까요?중요한 것은 인공지능은 무중력 상태에서 작동하는 게 아니라 특정한 맥락·의도 속에서 작동한다는 것이고 그래서 개발자들은 자신들이 하는 일에 대한 책임을 염두에 두어야 한다고 생각합니다.
인공지능은 어떻게‘창의적’답변을 할까?
전치형 두 번째 질문은‘인공지능은 무엇인가’에 대한 질문입니다.대규모 언어모델을 기반으로 하는 챗봇은 질문을 이해하고 답변한 것이 아니라 통계적으로 가장 가능성이 큰 답을 제시한다는 점에서‘확률적 앵무새’로 봐야 한다는 주장도 있습니다.이 비유에 대해 어떻게 생각하시나요?
비르하네‘확률적 앵무새’는 거대 언어모델에 기반을 둔 생성형 인공지능의 특징을 정확히 포착한 비유라고 생각합니다.이 시스템의 핵심은 학습된 데이터를 바탕으로 데이터를 재생산하는 것이기 때문입니다.
마커스 비르하네 교수님 의견에 동의하지만 몇 가지 빠진 부분을 말씀드리겠습니다.챗봇의 경우엔‘확률적 앵무새’비유가 잘 들어맞습니다.특정 단어나 문장의 다음 단계에 어떤 것이 와야 할지 예측하는 자동 완성 기능은,이 비유가 정확히 포착하고 있습니다.하지만 자율주행자동차가 도시에서 어떻게 운전을 할지,어느 방향으로 가야 할지를 결정하는 것은‘확률적인 앵무새’가 아니라 잘 만들어진 알고리즘 덕분입니다.
테드 창 지난해 제가‘챗지피티(GPT)는 웹의 흐릿한 복제본이다’라는 칼럼을 쓴 적이 있어요.챗지피티는 기본적으로 정보를 축약하고 압축한 버전이라는 것입니다.인터넷은 실제 세상과 달리,웹페이지가 가득 모여 있는 곳에 불과합니다.챗지피티는 웹에서 수많은 정보를 가지고 와서 압축해 표출합니다.개인용 컴퓨터 서버 용량의 한계로 모든 정보를 손실없이 저장하는 게 불가능하기 때문에,손실 압축 알고리즘을 사용합니다.그래서 웹에 있는 정보를 흐릿하게 다시 보여주는 이미지에 불과하다고 말하는 것입니다.문제는 이 과정에서 환각·오해·잘못된 거짓 정보의 표출 등 오류가 발생할 수 있습니다.
얼핏 보면 챗지피티가 굉장히 예리한 정보를 제공하는 것 같습니다.문법적으로 정확한 문장을 구사하니까요.하지만 다른 차원에서 보면 희미한 정보입니다.부정확하며 여러분을 속일 수 있습니다.비유하자면,챗지피티는‘스테로이드를 복용하는 자동완성 기능’에 가깝습니다.어떤 경우에는 자동완성 기능으로 좋은 제안을 보여줄 수 있지만 어떤 경우에는 엉터리 결과물을 내기 때문입니다.챗지피티는 겉으로 보이는 것과 달리 절대로 신뢰할 수는 없습니다.
최예진 챗지피티는 주어진 프롬프트에 따라 새로운 것을 생성하지만,이것이 실질적인 일반화에 의한 것인지,챗지피티가 그냥 어떤 것들을 생성한 것인지 아직 명확하게 알지 못합니다.
창의성이 매우 높은 사람의 입장에서는 챗지피티의 답변이 별로 놀랍지 않습니다.하지만 질문에 따라,때로는 매우 창의적이고 놀랄만한 결과가 나오기도 합니다.이 점이 우려되는 부분입니다.사람들이 인공지능 기술에 대해 기대를 걸기 때문입니다.하지만‘창의적 답변’이 어떻게 생성되었는지는 아직 모릅니다.
인공지능 기술 품질 평가 기준은 자동차와 어떻게 다를까?
전치형 앞으로 업무에서 인공지능 서비스가 더 많이 이용될 것으로 예상하는데,우리 사회가 인공지능 기술의 품질을 어떤 기준으로 평가해야 할까요?자동차의 경우,품질을 평가할 때 힘·속도·디자인·편안함·안전성·접근성·연비·탄소배출량 등의 척도로 평가합니다.또 시간이 지나면서 평가 기준이 변하기도 합니다.
테드 창 자동차와 비교를 하셨는데요.미국 디트로이트에 제너럴모터스(GM)이라는 거대 자동차 회사가 있습니다.이 회사가 미국 전역에 있는 대중교통 시스템을 사들인 후 폐쇄해버렸어요.소비자들이 자동차를 더 많이 구매하고 이용하도록 하기 위해 그렇게 했습니다.
미국은 대중교통이 부족하고,개인이 자가용을 소유하는 게 일반적이었기 때문에 제너럴모터스는 이런 선택을 한 것이죠.사람들이 자가용을 사게 된 원인은 이처럼 기업의 의도와 관계가 깊습니다.소비자가 원해서가 아니라 기업의 의도를 중심으로 진행되어 온 것이죠.이러한 과정은 다른 분야에서도 비슷합니다.생수의 경우도 사람들이 생수를 원해서가 아니라 기업이 생수를 슈퍼마켓에서 판매하기 시작하면서 사 먹는다는 관행이 굳어진 것입니다.
기술 기업도 비슷합니다.기술 개발이 소비자가 원하는 기준으로 진행된 것이 아니라,기술 기업이 원하는 방향과 의도에 맞춰 진행되고 있습니다.저는 시민의 한 사람으로서 “인공지능이 이랬으면 좋겠어”라고 바람을 말할 수는 있습니다.하지만 제가 인공지능의 품질평가 기준에 대해 여러 사람을 설득시켰다 해도 큰 변화를 일으킬 수 없습니다
비르하네 빅테크 기업은 생성형 인공지능을 개발하고 시장에 출시한 후,이것이 정상적인 규범이 될 때까지 계속 시민들을 압박합니다.이 기술은 시민들에게 그냥 주어진 기술입니다.먼저 주어진 후에 목적과 타깃집단을 찾는 것입니다.
구글의‘에이아이(AI) 오버뷰’의 예를 들어보겠습니다.구글은 자사의 검색엔진에 생성형 인공지능‘에이아이 오버뷰’를 연결한다고 발표했는데,검색어를 넣으면 부정확한 정보가 나오는 등 문제가 많습니다.예를 들어‘피자에서 치즈를 떨어지지 않도록 만드는 법’을 질문하면 “접착제를 넣으라”는 식의 부정확하고 우스꽝스러운 답변이 뜹니다.테드 창의 평가처럼,기술의 방향성을 결정하고 출시하는 것은 빅테크 기업이고 우리는 주어진 것을 그냥 사용해야 합니다.
그리고 인공지능의 품질평가 기준에 대해 말씀드리면,인공지능을 인간의 능력과 비교해 벤치마크(성능 점수)를 주어야 한다는 논의도 있는데,저는 굉장히 신중해야 한다고 생각합니다.인공지능과 인간을 비교하는 자체가 잘못된 것이기 때문입니다.인간은 별도의 개체입니다.인간의 인지와 지능은 복잡하고 불투명한 블랙박스입니다.인공지능은 인간이 만들어낸 도구에 불과하며 자체적으로 가치를 지니지 않습니다.
게리 마커스 뉴욕대 명예교수,인지심리학자
“AI 품질 평가 위해선 AI학습 데이터 공개해야
AI전공자는 세상이 어떻게 작동하는지도 공부해야”
마커스 품질평가 기준에 관해 이야기하는 것이 왜 어려운지 말씀드리겠습니다.저는‘인공지능이 사람을 속일 수 있느냐’를 기준으로 평가해야 한다고 생각합니다.어떠한 데이터를 가지고 학습했는지가 중요한데,이것을 모른다면 인공지능을 제대로 평가할 수 없다는 점도 짚고 싶습니다.이 시스템에 대해서 잘 모른다면 우리가 제대로 된 기준을 수립하기가 어렵습니다.그래서 투명성이 중요해요.기업이 어떠한 데이터를 가지고 인공지능을 학습시켰는지를 공개해야 합니다.
우리는 인공지능이 많은 측면에서 인간보다 낫기를 바랍니다.그런데 지금은 인간이 기계가 못하는 것을 더 잘하고 있어요.앞으로 어떻게 될지는 알 수 없지만요.비행기는 새처럼 날아갈 필요는 없습니다.인공지능의 문제는 신뢰할 수 없다는 것입니다.그 신뢰성 측면에서의 기준을 수립하는 것이 지금 잘 이루어지지 못하고 있습니다.
최예진 향후 몇 년 동안 인공지능 평가는 더 어려워질 것입니다.그리고 인공지능과 자동차를 비교하는 것은 적절치 않다고 생각합니다.왜냐하면 인공지능은 결코 자동차처럼 직관적이지 않기 때문입니다.두 가지의 어려움이 있는데요.첫 번째는 과학자들,그리고 사회는 이미 어떤 결론을 내리고 있다는 점입니다.그 결론은 제가 이렇게 챗지피티의 실수와 오류에 대해서 발표를 해도 과학자들은‘다음 단계나 버전에서는 그 문제들이 다 해결될 것’이라고 낙관합니다.그래서 오류들을 해결하려고 하지 않습니다.과학계 내에서도 인간의 이런 편향성은 작동하고 있습니다.
두 번째 문제는 자동차와 달리 인공지능이 만들어낸 결과물은 우리가 제어할 수 없다는 것입니다.우리는 인공지능의 작동에 대해 이해하지도 못하고,어떻게 평가를 해야 할지도 알지 못합니다.인공지능은 어려운 과제에서는 뛰어난 성능을 보이다가도 아주 사소한 것에서 실수하기 때문에 평가하기가 어렵습니다.앞으로 모델이 발전할수록 더 놀라운 결과물이 나올 것이고,평가는 더 어려워질 것입니다.모델들이 실제로 도입되기에 앞서서 모델을 사전 검증하는데 많은 투자가 이루어져야 합니다.사람들은 이미 인공지능 도구를 너무 신뢰하고 있어요.
데이터 편향성,어떻게 고칠 수 있을까?
전치형 인공지능이 학습한 데이터가 편향돼 있어서 잘못된 결과를 도출한다는 지적이 많습니다.컴퓨터 과학자들은 이 데이터 편향 문제를 해결하기 위해 노력하고 있지만 한계가 있습니다.데이터가 아니라 세상이 편향되어 있기 때문입니다.역사적·정치적·문화적으로 특정 집단이 소외·억압되면서 발생하는 편향은 인간 사회 시스템에 내재해 있는 근본적인 특징이기도 합니다.데이터의 편향 문제를 어떻게 해결해야 할까요?
최예진 인간 사회가 불공정·불평등하다는 사실이 인공지능 도구도 공정할 필요가 없다는 근거가 될 수는 없습니다.인공지능이라는 도구가 편향을 어떻게 확산하는지 주의 깊게 살펴봐야 합니다.인간 사회는 복잡하기 때문에 어떤 편향은 매우 미묘하고 모호하며,우리가 모두 똑같은 이해 수준을 지니고 있지도 않습니다.이 문제를 완벽하게 고칠 수는 없지만,그래도 세상을 좀 더 낫게 만들기 위해 노력해야 하지 않을까요?
마커스 저는 현재 사용하고 있는 기술적 측면에 주목해 말씀드리고자 합니다.현재 우리가 사용하는 기술은 인터넷에 있는 과거의 데이터를 기반으로 하기 때문에,과거의 편향이 계속 남아있습니다.설령 사회가 어떤 문제를 해결했다 하더라도 데이터상의 편향은 계속 유지되고 있는 것이지요.미래의 인공지능은 다를 수 있습니다.
아베바 비르하네 아일랜드 트리니티대 교수,인지심리학자
“빅테크 담배회사 경로 답습…대중은 AI를 사회문제 해결수단으로 지지
채용 면접,범죄자 식별 등에 AI 도구 사용시 중대한 편향 발생”
비르하네 인공지능이 사용하는 데이터는 편향의 문제,대표성의 문제가 있습니다.인공지능 모델이 학습 데이터를 수집하는 월드와이드웹(www)에 누구나 동일하게 접근할 수 없기 때문입니다.
거대한 데이터 세트를 세분화해서 문제 있는 부분을 고치는 방식의 기술적인 시도도 중요합니다.하지만 편향성은 철학적인 문제이기도 합니다.복잡한 사회를 인공지능 도구를 활용해 모델화할 때 편향성이 문제가 됩니다.인간사회는 다양한데,캔자스시티 로열스흑인여성·흑인학자 등과 같은 부분에서는 편향이 도드라지고 대표성의 왜곡이 발생합니다.이런 잘못된 현실을 담은 데이터가 인공지능 학습에 활용됩니다.더 많은 검증·감사를 통해 편향의 문제를 해결해가야 합니다.문제를 제대로 이해하고,캔자스시티 로열스다양한 관점에서 문제를 살펴보고,무엇보다 잘못된 사회의 구조를 바꾸기 위해서 노력해야 합니다.
빅테크가 담배회사와 다른 점은
전치형 현재 인공지능의 개발이 기술 대기업에 의해 주도되고 있다는 점은 의심의 여지가 없습니다.자동차 회사나 담배 회사와 같은 다른 영역의 거대 기업보다,캔자스시티 로열스이런 빅테크 기업들을 더 비판적으로 봐야 할까요?
비르하네 물론입니다.많은 사람이 빅테크 기업들은 담배회사·자동사 회사와 다를 게 없다고 합니다.그리고 담배회사들이 정책에 영향을 미치기 위해 사용하는 방법을 빅테크 기업들이 따라하고 있습니다.실제 로비에 가장 많은 지출을 하는 곳이 빅테크 기업입니다.하지만 대중의 지지를 업고 있다는 점에서 담배회사와 다릅니다.대중은 인공지능을 사회의 발전·진보라고 여기며 어려운 사회 문제를 해결해줄 것으로 기대합니다.그래서 다른 분야 거대 기업보다 빅테크가 훨씬 위험합니다.
마커스 정부 로비 등 담배 회사의 전략을 빅테크 기업들이 따라가고 있다는 말씀에 동의합니다.빅테크 기업들은 아직 수익을 내지 못하기 때문에,다양한 문제 해결에 인공지능의 역할이 중요하다는 식으로 과대광고를 합니다.사람들이 빅테크 기업들에 큰 힘을 실어주는 이유는 이런 환상 때문이 아닐까요?
테드 창 저는 미국의 이야기를 덧붙이고 싶습니다.미국은 빅테크 기업들의 본사가 있는 곳이기도 합니다.과거에 미국 정부는 기업의 독과점 해결을 위해 많은 노력을 했습니다.기업이나 개인이 부담해야 하는 세금도 지금보다 훨씬 높았습니다.
하지만 1980년대 이후,독과점에 대한 정부의 태도가 달라졌습니다.빅테크 기업들이 규제를 덜 받는 데에는 이러한 환경변화가 있습니다.근래 들어 정부가 빅테크 기업들을 규제하기 시작하고 있고,이것이 지속되기를 기대합니다.
인공지능이 인간을 대체할까?
전치형 인공지능이 인간을 대체할 수 있을지에 대한 질문을 드려보겠습니다.여러분 중 인공지능이 자신의 직업을 위협한다고 느끼는 분이 있을까요?
마커스 저는 단 한 순간도 챗지피티가 제 일을 대신할 수 있다고 생각해본 적이 없습니다.챗지피티 사용자들이 글을 쓸 때‘게리 마커스 스타일’을 주문하기도 한다는 것은 알고 있습니다.하지만 저의 논문이나 글을 흥미롭게 만드는 그 핵심적인 요소는 절대 모방할 수 없다고 생각합니다.저는 다른 사람들이 생각하지 못하는 부분에 대해서 생각을 하고 글을 씁니다.큰 틀에서는 챗지피티가 글을 쓰는데 도움을 줄 수 있지만,캔자스시티 로열스구체적인 도움은 줄 수 없습니다.
최예진 테드 창이 기조연설에서 인간은 상호작용을 할 때 의도를 가지고 있다는 점에서 인공지능과 다르다고 말씀하셨는데 매우 공감합니다.저는 대학에서 강의하는 교수이기 때문에 학생들과의 소통·상호작용이 매우 중요하고 이것은 인공지능이 할 수 없습니다.또한,과학자로서 다른 사람이 하지 못했던 좋은 질문을 하는 것도 중요하다고 생각합니다.챗지피티는 어떤 질문을 던져도 척척 대답하지만,가짜 질문을 걸러낼 수 있는 능력은 부족합니다.
테드 창 제가 했던 일 중에서 테크니컬 라이터 같은 경우에는 인공지능이 어느 정도 대신할 수 있을 듯합니다.하지만 오늘 제가 서 있는 이 자리를 챗지피티가 대신할 수는 없습니다.챗지피티에게 주제를 던지고 기조연설문을 써달라고 부탁할 수도 있지만,캔자스시티 로열스주최 측은 챗지피티가 아닌 저에게 연설 요청을 하셨습니다.인공지능이 아닌 사람에게 부탁한 것입니다.
비르하네 저도 인공지능이 저를 대체할 것이라고 생각하지 않습니다.인공지능은 우리의 일을 효율적으로 할 수 있도록 도와주는 도구에 불과합니다.저는 저만이 할 수 있는 질문이 있고,챗지피티는 연구자로서 제가 하는 질문들을 할 수 없습니다.저의 일은 열정과 배려가 필요하지만 챗지피티는 결코 그렇게 할 수 없습니다.
인공지능을 유익하게 활용하는 방안은?
전치형 인건비 절감,사라질 위기에 처한 언어 보존,기후변화에 대한 대처,모나리자의 복제 등 인공지능은 다양한 용도로 활용될 수 있습니다.인공지능을 유익하게 활용할 수 있는 방안은 무엇일까요?
테드 창 치료약이나 단백질 분자의 발견,재료 공학 등의 분야에서는 인공지능이 도움될 수 있습니다.어느 물리학자가 인공지능을 전자를 발견하는 현미경에 비유했는데요.인간의 맨눈으로 발견하기 어려운 많은 양의 데이터를 처리하고 검토할 때 인공지능이 유익한 역할을 할 수 있습니다.하지만 마이크로소프트나 구글과 같은 빅테크 기업은 이러한 목적으로 인공지능을 개발하고 있지 않습니다.생성형 인공지능은 절대 유익한 방향으로 활용될 수 없고 사기에 활용되고 있을 뿐입니다.
마커스 저는 다소 낙관적인 입장인데요.생성형 인공지능은 거짓 정보를 만들어내고 사기성도 있지만,과학적인 발견,재료 공학 등과 관련해 아이디어를 도출할 때 유익하고 일을 신속히 처리하는 데 도움이 됩니다.
비르하네 인공지능은 물리 시스템이나 모델을 만드는 데 도움이 될 수 있습니다.하지만 채용·처벌·복지수급자 결정 등 인간 사회의 영역에 활용되면 정확도가 떨어집니다.역사적·사회적·문화적으로 복잡한 인간 사회의 문제들을 인공지능이 다 고려할 수 없기 때문입니다.특히 사람을 분류하거나 범죄자 식별 등과 같은 영역에 인공지능을 활용하면 매우 편향적 결과가 나올 수 있기 때문에 사용해서는 안 됩니다.
인공지능을 연구하는 학생들을 위한 조언은?
전치형 마지막으로 인공지능의 유익한 사용을 위해 과학 연구뿐만 아니라 윤리와 사회적 책임에 대해서도 진지하게 고민하는 컴퓨터공학·인공지능 개발 분야 학생들에게 조언 부탁드립니다.
최예진 나중에 이 업계에 들어오게 되면 실망할 수도 있지만,저는 좀 더 건설적인 각도에서 바라봐야 한다고 말씀드리고 싶습니다.인공지능은 매우 강력한 도구이기 때문에 우려도 큽니다.우리는 인공지능을 해석 가능하고 통제 가능한 방식,그리고 공정하며 형평성을 강화하는 방식으로 개발해야 합니다.
비록 선한 의도로 인공지능을 개발하더라도 의도하지 않는 부정적 결과를 낳을 수 있습니다.그렇기 때문에 인공지능이 부정적 영향을 미칠 가능성을 미리 인지하고 이 업계에 들어오는 것이 중요하다고 생각합니다.
생성형 인공지능은 위험하기도 하지만,안전하게 사용할 수 있는 방법을 개발한다면 교육·의학 분야에는 유용할 수 있습니다.예를 들어,인도의 경우 변호사를 고용하려면 너무 비용이 많이 들기 때문에 대부분의 사람은 부당한 일이 있어도 가만히 참고 있어야 합니다.하지만 인공지능을 이용하면 변호사 비용을 낮출 수 있고,완벽하지는 않더라도 필요한 사람들에게 도움이 될 수 있죠.또 하나의 사례를 들어볼게요.아프리카에 스타트업을 시작한 아프리카 출신 기업가로부터 들은 이야기인데,병원이 너무 멀어서 사람들이 아파도 병원에 가지 않는다고 해요,휴대폰에 앱을 만들어서 의료 서비스의 접근성을 높이는 방식으로 도움이 될 수 있습니다.
마커스 학생들이 미래에 기여하기 위해서는 지금 대세로 보이는 흐름이나 잘 알려진 연구만 공부하지 말고,기술적 차원에서 어떤 것이 거대언어모델의 대안이 될 수 있는지에도 관심을 가지면 좋겠습니다.그리고 컴퓨터 공학을 넘어 세상이 어떻게 작동하는지,어떤 문제들이 발생하는지 볼 수 있도록 다른 영역의 공부도 하라고 말씀드리고 싶습니다.
비르하네 인공지능 기술은 많은 문제를 야기할 수 있지만,중요한 것은 더 낳은 방향으로 만들기 위해 노력해야 한다는 점입니다.비판적인 시각을 지니는 것이 중요합니다.
인공지능과 함께 살아가야 할 미래를 예측한다면?
전치형 청중석에서 나온 질문을 드리겠습니다.발표자분 모두 인공지능의 위협을 느끼지 않는다고 말씀하셨는데,전문직 아닌 다른 직업은 인공지능에 의해 대체될 수도 있지 않을까요?
마커스 이런 분야는 예측하기가 어렵습니다.2012년에는 자율주행 자동차로 인해 택시 기사들이 직업을 잃을 수 있지만,인공지능이 아티스트를 대체할 것이라고 예측하지 못했습니다.하지만 생성형 인공지능으로 인해 아티스트들은 지금 심각한 일자리 위협을 느끼고 있습니다.저희는 2년 후에 대해서는 조금씩 예측을 할 수 있지만 10년 후에 대해서는 예측하기 어렵습니다.
테드 창 미래 예측은 매우 어렵고 우리는 예측을 잘못합니다.기업 임원은 비용을 낮추려는 용도로 직원을 해고하고 인공지능으로 대체할 수도 있습니다.하지만 실제로는 어떤 것도 절감할 수 없고 제품의 품질만 하락해 다시 새 직원을 고용할 수도 있습니다.기업 평판만 나빠져 더 나쁜 결과로 이어질 수 있습니다.
최예진 저는 미래는 예측하기는 어렵지만 저희가 예측할 수 없기 때문에 우리가 원하는 방식으로 미래를 바꿀 수 있다고 생각합니다.
전치형 마지막 정리 말씀 부탁드립니다.
비르하네 희망을 버리지 않고 노력하는 게 중요합니다.우리가 하는 일은 기술이 소외된 사람들에게 도움이 될 수 있도록 좋은 방향으로 만들어가는 것입니다.
마커스 지금 우리가 하는 선택이 매우 중요합니다.소셜미디어를 통제하기까지는 시간이 오래 걸렸습니다.그래서 부정적 영향이 컸습니다.인공지능의 영향력은 더 큽니다.인공지능이 우리 모두,그리고 우리의 미래에 긍정적 영향을 미칠 수 있도록 노력해야 합니다.
테드 창 저는 마이클 세이커라는 작가가 한 이야기를 이용하고 싶습니다.사회관계망서비스(SNS)를 두고‘우리는 도덕적 책임을 피하는 걸 중심으로 기술을 발전시킨다’고 비판했어요.인공지능을 비롯한 새로운 기술을 도입할 때 우리는‘도덕적 책임을 피하고자 이 기술을 도입하려는 건 아닌지’늘 자문해 봐야 합니다.우리의 선택과 행위에 대해 책임을 질 수 있어야 합니다.
캔자스시티 로열스 - 2024년 실시간 업데이트
캔자스시티 로열스 - 2024년 최고의 온라인 슬롯:연구진은 두께 1~10㎜에 벌집 구조를 채택해 빛을 투과하면서도 단단한 나무 소재를 만들었다.
캔자스시티 로열스,이영애 인천대 소비자학과 교수는 "MZ세대는 기성세대들과 소비 가치가 다르다"며 "물건을 소유하는 게 익숙한 기성세대는 새 제품을 선호하는 반면 물건을 활용하는 것에 관심이 많은 MZ세대는 나한테 필요 없는 물건도 누군가에겐 필요할 수 있다고 생각해서 중고 거래 등이 활발해지고 있다"고 말했다.