교육
[인공지능] 사회적 기술을 갖춘 AI 소프트웨어는 인간에게 협업 방법을 가르쳐준다.
인간-컴퓨터 협력의 잠금을 해제한다. 인간은 거짓말을 한다. 그리고 좋았던 인간 관계도 순간 무너진다.
기사입력: 2021/06/01 [00:00] ⓒ NGO글로벌뉴스
JM Kim
트위터 페이스북 카카오톡 카카오스토리 네이버 블로그 밴드
필자의 다른기사 보기 인쇄하기 메일로 보내기 글자 크게 글자 작게

컴퓨터 연구팀은 S Sharp (S #로 작성)라고하는 사회적 기술을 갖춘 AI 소프트웨어 프로그램을 개발했다. 이는 협력 능력이 인간보다 뛰어났다. 이것은 인간과 AI 소프트웨어 간의 일련의 게임을 통해 테스트되었다. 이 테스트는 다양한 사회적 시나리오에서 사람들과 S #을 연결했다.

인간이 소프트웨어를 상대로 한 게임 중 하나는 "수감자의 딜레마"이다. 이 고전 게임은 이성적인 두 사람이 함께 일하는 것이 가장 이익이 되는 것처럼 보이더라도 어떻게 협력하지 않을 수 있는지 보여준다. 또 다른 도전은 정교한 블록 공유 게임이었다.

 

대부분의 경우 S # 소프트웨어는 양측 모두에게 이익이 되는 타협점을 찾는 데 있어 사람을 능가했다. 실제 실험을 보려면 아래의 유용한 기능을 시청하라. 이 프로젝트는 두 명의 유명한 컴퓨터 과학자가 진행했다.

Iyad Rahwan PhD ~ Massachusetts Institute of Technology o 미국

Jacob Crandall PhD ~ Brigham Young Univ. o 미국

연구원들은 3가지 유형의 게임 상호 작용에서 인간과 AI를 테스트했다.

 

*컴퓨터 대 컴퓨터

*인간 대 컴퓨터

*인간 대 인간

 

 

인간 수준에서 우리와 협력하는 AI 구축.

 

Jacob Crandall PhD 연구원은 다음과 같이 말했다.

이제 컴퓨터는 체스와 같은 가장 지적으로 도전적인 게임에서 최고의 인간 정신을 이길 수 있다. 또한 자동차 운전과 같이 성인이 배우기 어려운 작업을 수행할 수도 있다. 그러나 자율 기계는 협력을 배우는 데 어려움을 겪고 있다. 어린 아이들도 그렇게 한다.

인간의 협력은 쉬워 보이지만 문화적 규범, 뿌리 깊은 본능, 비협조적 행동을 거부하는 사회적 메커니즘에 의존하기 때문에 모방하기가 매우 어렵다.

 

이러한 상식 메커니즘은 기계에 쉽게 내장되지 않는다. 사실 체스 + 체커, 아타리 비디오 게임, 포커 카드 게임 등의 보드 게임을 효과적으로 수행하는 동일한 AI 소프트웨어 프로그램은 협력이 필요할 때 일관되게 협력하지 못하는 경우가 많다.

 

다른 AI 소프트웨어는 서로 협력하는 방법을 배우기 위해 종종 수백 번의 경험이 필요하다. 인간이 서로 협력하는 방식으로 인간과 협력하는 컴퓨터를 만들 수 있을까? 수십 년간의 AI 연구를 바탕으로 우리는 단순히 자신의 세계를 극대화하기 위해 다른 기계와 협력하는 방법을 배우는 새로운 소프트웨어 프로그램을 구축했다.

 

우리는 죄수의 딜레마도전과 정교한 블록 공유 게임을 포함하여 다양한 사회적 시나리오에서 AI와 사람들을 연결하는 실험을 실행했다. 프로그램은 다른 컴퓨터와 협력하는 방법을 지속적으로 배우지만 사람들과 잘 협력하지 않는다. 하지만 사람들도 서로 협력하지 않았다.

 

우리 모두 알다시피: 인간은 말과 몸짓으로 의도를 전달할 수 있다면 더 잘 협력할 수 있다. 그래서 지속적으로 사람들과 협력하는 법을 배우는 프로그램을 만들기 위해 우리는 AI에 사람들의 말을 듣고 대화할 수 있는 방법을 제공했다.

 

우리는 AI가 이전에 예상치 못한 시나리오에서 플레이 할 수 있는 방식으로 그렇게 했다. 결과 알고리즘은 우리의 목표를 달성했다. 사람들과 협력하는 법을 지속적으로 배운다. 우리의 결과는 두 대의 컴퓨터가 훨씬 더 나은 팀을 만든다는 것을 보여준다. 두 사람보다 낫고 사람 + 컴퓨터보다 낫다.

 

하지만 이 프로그램은 맹목적인 협력자가 아니다. 사실 AI는 사람들이 제대로 행동하지 않으면 매우 화를 낼 수 있다. 역사적인 컴퓨터 과학자 Alan Turing PhD는 기계가 잠재적으로 인간과 같은 지능을 보여줄 수 있다고 믿었다. 그 이후로 AI는 인류 또는 인간의 직업에 대한 위협으로 정기적으로 묘사되었다.

 

사람을 보호하기 위해 프로그래머는 Isaac Asimov PhD가 작성한 로봇 공학의 3가지 법칙과 같은 법적 + 윤리적 원칙을 따르도록 AI를 코딩하려고 했다. 우리의 연구는 새로운 길이 가능하다는 것을 보여준다.

 

이기적으로 수익을 극대화하도록 설계된 기계는 다양한 상황에서 인간과 협력할 수 있는 자율적인 선택을 할 수 있다. 2명의 인간이-서로에게 정직하고 충성했다면-기계 2대와 마찬가지로 그랬을 것이다. 인간의 절반 정도가 어떤 시점에서 거짓말을 했다. 따라서 AI는 거짓말을 하지 않도록 프로그램 되어 있기 때문에 도덕적 특성이 더 낫다는 것을 배우고 있으며 협력이 나타나면 협력을 유지하는 법도 배운다.

 

목표는 사람들과 협력하는 이면의 수학, AI가 사회적 기술을 개발할 수 있도록 필요한 속성을 이해하는 것이다. AI는 우리에게 응답할 수 있어야 하며 자신이 하는 일을 명확하게 표현할 수 있어야한다. 다른 사람들과 상호 작용해야 한다. 이 연구는 인간의 관계를 도울 수 있다. 사회에서 관계는 항상 무너진다. 몇 년 동안 친구였던 사람들이 갑자기 적이 된다. AI는 종종 우리보다 이러한 타협에 더 잘 도달하기 때문에 더 잘 어울리는 방법을 가르쳐 줄 수 있다.

 


원본 기사 보기:ainet
ⓒ NGO글로벌뉴스. 무단전재 및 재배포 금지
트위터 페이스북 카카오톡 카카오스토리 네이버 블로그 밴드
이 기사에 대한 독자의견 의견쓰기 전체의견보기
기사 내용과 관련이 없는 글, 욕설을 사용하는 등 타인의 명예를 훼손하는 글은 관리자에 의해 예고없이 임의 삭제될 수 있으므로 주의하시기 바랍니다.
닉네임 패스워드 도배방지 숫자 입력
내 용