AI 스피커: 보안, 사생활침해 우려에도 믿어도 될까

AI 스피커가 범용화되면서 이와 관련한 보안 및 사생활침해 우려도 깊어지고 있다 Image copyright Getty Images

AI 스피커에 아무도 모르는 깊은 속내를 털어놓아도 될까?

AI 스피커가 범용화되면서 이와 관련한 보안 및 사생활침해 우려도 깊어지고 있다.

AI 스피커 믿어도 되는지, 사생활 침해를 방지하기 위해서 어떤 노력을 할 수 있을지 로리 셀란 존스 BBC 기술 특파원의 말을 빌려 정리해봤다.

자동 보고, 사생활 침해?

"혹시 파킨슨병 증상 말해줄 수 있어?"

당신이 영국에서 아마존 AI 스피커에게 다음과 같은 질문을 했다면 두 가지 일이 일어날 것이다.

첫째로는 AI 스피커가 증상을 찾아 말해줄 것이고 둘째로는 영국 국가보건서비스(NHS)에 해당 사실을 보고할 것이다.

아마존이 최근 영국 NHS와 협약을 맺으면서 '사생활 침해'에 대한 논란이 불거졌다.

이와 관련된 캠페인을 펼치고 있는 빅 브라더 워치의 실키 카를로는 해당 파트너십이 "건강 정보를 이용해 수익을 창출하는 사기업에 개인정보를 넘겨주는 행위"라며 우려를 표했다.

아마존 측은 이 정보가 제3자의 광고 등 수익창출 행위에 쓰이지 않을 것이라고 해명했다.

하지만 카를로는 AI 스피커가 "단순히 책과 음악에 대해 검색하는 사람들과 건강 관련 질문을 검색하는 사람들을 구별하기 어렵다"며 상업적 의도로 쓰이지 않을 것을 확신할 수 없다고 비판했다.

'더 나은 정보 전달'

하지만 전 아마존 소프트웨어 개발팀 윌리엄 툰스털-피도의 의견은 다르다.

그는 AI 스피커가 오랜 기간 건강 관련 질문을 받아왔으며, 이 질문에 옳은 대답을 해주는 것이 중요하다는 것을 깨달았다고 말했다.

"이번 파트너십은 AI 스피커가 NHS 내 전문가들의 의견을 수렴해 전례 없이 높은 품질의 의학 정보를 제공할 수 있음을 뜻합니다."

그는 세간의 우려를 이해하면서도 AI 스피커에 유독 엄격한 것에 대해서는 의문을 표했다.

구글 등 검색 엔진에 검색하는 정보들이 제3자에게 이용될 수 있는 것처럼 검색을 대리해 진행해주는 AI 스피커의 정보도 당연히 이용될 수 있다는 것이다.

'모르는 것들이 너무 많다'

우리는 AI 기술에 대해 얼마나 알고 있을까?

일부 전문가는 AI 기술을 통해 일어나는 일들이 불확실하다고 말했다.

인간의 개입 없이 AI가 스스로 내리는 결정을 우리가 완전히 이해하지 못한다는 것이다.

요크 대학의 연구진은 이러한 현상을 "우연한 자율성(accidental autonomy)"이라고 설명한다.

존 맥데미드 교수는 보잉 737 맥스의 추락 원인이 된 소프트웨어를 예로 들었다.

그는 당시 조종사 누구도 해당 시스템을 이해하지 못하고 있었다며 이러한 중요한 기술까지 인간의 깊은 이해 없이 자체적으로 운영되고 있는 것이 현실이라고 지적했다.

그의 동료 아나 매킨토시 박사도 의견을 덧붙였다. 그는 더 나아가 과거에는 결정 내린 인간에게 질문하면 어떤 사고과정을 통해 결정을 내렸는지 확인할 수 있었지만, AI가 만든 결정은 그 과정을 이해하기 어렵다고 말했다.

"저희는 대부분의 결론이 어떻게 수렴되는지 이해하지 못하고 있어요."

관련 기사 더 보기