AI 윤리 2

인간이 AI를 통제할 수 있어야..'어시스턴스 게임 모델' 언급한 러셀 교수

김현아 입력 2021. 12. 12. 17:50 댓글 3개 인간의 선호도 배우는 로봇 선호도와 다르게 행동하거나 모를때 인간에게 결정넘겨 오프 스위치의 등장..PR2 로봇으로 연구중 [이데일리 김현아 기자] 지난 10일 KAIST가 주최한 AI 국제심포지엄에서 기조연설자로 스튜어트 러셀 UC버클리대 전기공학 및 컴퓨터과학과 교수가 온라인으로 참여했다. “인공지능(AI)이 어떠한 업무 환경에서도 고급 행동을 빨리 배울 수 있게 된 다음은 어떻게 될까요? 아마 제품과 서비스가 지구에 있는 사람들의 목표를 충족시킬 수 있을 만큼 무제한으로 제공되겠죠. 고도의 생활 수준, 건강, 교육, 과학들이 발전해 굉장히 보수적으로 잡아도 세계 GDP가 10배가 상승할 겁니다. 하지만 인종편향 같은 리스크도 생깁니다. ” ..

AI의 공정성 수호할 기술 도구들

[프리미엄 리포트] 2021.03.13 14:00 게티이미지뱅크 제공 “사람들이 인공지능(AI)에 대한 환상을 갖고 있는 것 같습니다. AI를 맹신하면 안 돼요. 이미 AI는 알게 모르게 편향된 결단을 내리고 있고, 그 피해를 보는 건 취약층과 소수층입니다.” AI 전문가들의 한결같은 말이다. 성별이나 인종, 연령대에 대한 AI의 차별은 이미 여러 차례 논란이 됐다. 마이크로소프트에서 개발한 대화형 AI ‘테이’의 인종 차별적 발언, 아마존 채용 AI의 성차별적 판단, 국내 대화형 AI ‘이루다’의 소수자 혐오 발언이 그 예다. 단, 기술적 의미에서 AI의 편향(bias)은 조금 더 넓은 범위를 포괄한다. 최재식 KAIST AI대학원 교수는 “사회적·윤리적 이슈에 대해서만이 아니라, 사실관계를 예측하는 ..