• mainvisual.jpg
  • Untitled-1.jpg
About Lab 아이콘

About Lab

ISAA 연구실 소개

VIEW DETAIL
Members 아이콘

Members

ISAA 연구실 연구원 소개

VIEW DETAIL
Research 아이콘

Research

주요 연구내용 소개

VIEW DETAIL
Project 아이콘

Project

ISAA 연구실 프로젝트 소개

VIEW DETAIL

ISAA NOTICE MORE VIEW +

  • 2024-05-02 더보기

    [ISAA Lab.] KBS대전 과학으로 보는 세상 SEE - 곽진 교수님 출연(2024.05.01. 방송)

    ​4차 산업혁명 시대가 도래하면서 ICT, AI 등을 활용한 각종 서비스로 편리함을 추구하게 되었다. 하지만, 네트워크 기술의 발전은 사이버 공격의 진화로 이어지면서 정보 보호가 사회적인 이슈로 떠오르고 있다. 최근 3년간 공공기관에서 유출된 개인정보만 해도 400만 건에 달하는 등 개인적 피해는 물론 기업 또한 오랜 기간 쌓아온 산을 도둑맞고 있다. 삼성SDS는 ‘AI를 악용한 악성코드 제작’을 올해 사이버 보안의 최대 화두로 삼았다. 정부 또한 2027년까지 세계 5위권 ‘e정보 보호산업’ 강국 도약을 위한 청사진을 제시하고 있으며, 각국의 기업들은 보안을 미래 기술의 핵심 가치로 삼아 글로벌 경쟁력 확보 전략을 구축하고 있다. 데이터 3법 시대! 정보 보호의 중요성, 정보 보호를 위한 노력은 어디까지 진행되었나? 보이지 않는 위협으로부터 어떻게 자신을 지킬 것인가? '과학으로 보는 세상 SEE'에서 디지털 보안에 대해 자세히 알아본다. ​[과학으로 보는 세상 SEE] - 뚫릴 것인가? 지킬 것인가? '디지털 보안' / KBS대전 202400501(수) 방송 - YouTube ​

  • 2024-02-27 더보기

    [ISAA Lab.] 뉴시스(24.02.17) 진화하는 딥페이크 기술 (교수님 인터뷰)

    지난주 공개된 이후 '넷플릭스 시리즈 1위'를 달리고 있는 화제작 '살인자ㅇ난감'. 이 시리즈의 인상적인 장면 중 하나가 주인공 장남감(손석구 분)이 어린 시절을 떠올리는 회상 신이다. 현재의 장난감 얼굴과 어린시절 모습이 오버랩되는 장면인데, 이를 본 시청자들은 '어디서 저렇게 손석구와 꼭 닮은 배우를 구했냐'는 반응을 보였다. 실제 드라마에서 대역이 없었던 것은 아니지만, 손석구의 어린시절 얼굴 사진을 조합해 만들어 낸 딥페이크 영상으로 확인됐다. 이같은 사실이 알려진 뒤 '소름끼친다' '대반전'이라며 놀라움을 표하는 이들이 적지 않다. 딥페이크(deepfake)란 인공지능(AI) 기술인 딥러닝(deep learning)과 '가짜'를 의미하는 단어인 페이크(fake)의 합성어로, AI 기술을 이용해 사람의 이미지·영상·음성을 합성하는 기술이다. 딥페이크 기술은 실제 영상과 구분하기 어려울 정도로 정교해지고 있다. 예전에는 딥페이크 영상에서 얼굴 표정이나 동작이 부자연스러운 게 많았다면 요즘은 자세히 살펴봐야만 가짜라는 걸 아는 경우가 많다는 게 전문가들의 진단이다. 또 사람의 모습과 행동이 담긴 단 몇 분짜리 영상과 말한 문장 100여개만 있으면 딥페이크로 가짜 영상을 만들 수 있다. 딥페이크 서비스의 진입장벽도 확 낮아지고 있다. 스마트폰 앱 스토어에서 '딥페이크'라고 검색하면 수십여개의 관련 서비스 앱이 뜰 정도다. 누구나 쉽게 스마트폰에서 딥페이크 서비스를 이용할 수 있다. 이들 서비스는 '얼굴 바꾸기·성별바꾸기' '목소리전환' 등의 기능도 제공한다. 문제는 육안으로 진위 여부를 판단하기 어려울 정도로 딥페이크 영상 기술이 발전하면서 이를 악용하는 범죄도 증가하고 있다. 최근 세계적인 팝스타 테일러 스위프트 얼굴에 음란물을 합성한 딥페이크 이미지가 사회관계망서비스(SNS) 엑스(X, 구 트위터)에서 확산돼 미국사회 뿐만 아니라 전 세계가 발칵 뒤집혔다. 지난해 11월 헐리우드 배우 스칼렛 요한슨은 자신의 사진과 목소리를 AI 기술로 변조, 이를 광고에 사용한 AI 앱 제작사에 법적 조치를 취했으며, 미국 유명배우 톰 행크스도 자신의 얼굴을 무단 도용한 AI 아바타가 치과 보험을 홍보하는 영상이 무단 유포되고 있다고 경고했다. 앞으로는 딥페이크 기술이 일반인들을 겨냥한 피싱 범죄에도 악용될 소지도 다분하다. AI가 개인정보를 광범위하게 수집한 결과로 만들어낸 피싱메일은 마치 잘 알고 지낸 사람이 보낸 인사메일로 둔갑할 수 있고, 짧은 인사말 한마디로 복제한 음성은 가족들을 속여 몸값을 받아내는데 활용될 것이란 게 보안 전문가들의 경고다. 가장 큰 문제는 딥페이크 기술의 오남용 여부를 판단할 기준조차 없다는 점. 곽진 아주대학교 교수는 "이것이 악의적인 콘텐츠인지, 그렇지 않은지 판단할 기준이 없는 상황"이라며 "그렇다고 '여기서 여기까지는 악용' 이런 식의 경직된 기준은 적합하지 않기 때문에 많은 고민이 필요한 상황"이라고 말했다. 이어 "이 때문에 플랫폼 기업들이 자체적인 규칙을 만들고 'AI 콘텐츠' 임을 표기를 하자는 것이 최근의 글로벌 대응 동향"이라고 말했다. 실제 인스타그램, 페이스북을 운영하는 메타와 구글, 틱톡 등 글로벌 빅테크들은 최근 진짜처럼 보이는 생성형 AI 콘텐츠에 별도의 라벨을 부착하겠다고 앞다퉈 발표했다. 정부도 올해 AI 프라이버시 유형·용례별 리스크 평가 모델을 마련키로 했다. 딥페이크 영상 등으로부터 초상권 등 정보주체의 권리를 보장할 수 있는 일종의 가이드라인을 제시한다는 방침이다. [관련기사 : https://www.newsis.com/view/?id=NISX20240216_0002629672] 

  • 2024-02-27 더보기

    [ISAA Lab.] 이데일리(23.03.09) 고학수 개인정보위원장, 유관학회와 간담회 정책방향 논의 (교수님 인터뷰)

    개인정보보호위원회는 한국프레스센터에서 개인정보 유관학회와 함께 간담회를 개최했다고 9일 밝혔다. 이날 간담회는 ‘개인정보 보호법’ 개정을 계기로 주요 개정 내용을 공유하고, 향후 정책방향 등을 논의하기 위해 마련했으며 고학수 개인정보위 위원장과 개인정보 관련 법제 또는 정보통신기술(IT)분야 10개 학회 대표가 참석했다. 지난달 27일 국회를 통과한 개인정보 보호법 개정안은 지난 7일 국무회의에서 의결됐으며 전 세계적인 디지털 대전환 추세에 부합하도록 △데이터 경제 견인 △국민 개인정보 신뢰 사회 구현 △글로벌 스탠다드에 부합하는 개인정보 규범 선도 등을 위하여 시급히 필요한 내용을 담고 있다. 황창근 한국정보법학회 회장은 “이번 법 개정으로 통합 개인정보 보호법의 위상을 확립했다”고 평가하고 “향후 입법이나 연구에 참고할 수 있도록 개정 과정을 기록한 입법자료집 발간해달라”고 요청했다. 김현중 한국데이터마이닝학회 회장은 “개인정보 전송요구권 도입을 환영하며 마이데이터 사업을 통해 데이터 독점현상이 완화되고 데이터 경제가 활성화할 것으로 기대한다”고 말했다. 이성엽 한국데이터법정책학회 회장은 “개인정보위가 마이데이터 콘트롤타워 업무를 실질적으로 수행하기 위해 그에 걸맞은 조직과 예산 등이 뒷받침 돼야 할 것”이라고 강조했다. 최경진 개인정보보호법학회 및 한국인공지능법학회 최경진 회장은 “이번 법 개정을 디지털 심화에 따른 법 개선 수요를 반영해 개인정보 규제체계를 현대화한 것”이라며 “개인정보 보호법이 시대 변화에 맞게 합리적으로 발전하도록 지속적으로 노력해달라”고 당부했다. 곽진 한국정보보호학회 부회장은 “개인정보보호를 위한 기술적 보호조치가 현장에서 제대로 적용되는 것이 중요하다”고 강조했으며 도경화 한국정보처리학회 부회장은 “향후 데이터 활용을 통한 서비스 발굴 및 개선을 위해 가명정보 활용 등에 대한 구체적·합리적 개선방안도 논의되길 기대한다”고 밝혔다. 채상미 한국경영정보학회 부회장은 “온·오프라인 규제 일원화와 분쟁조정제도 실질화 측면에서 규제의 효율성 및 효과성이 제고됐다”고 평가했다. 고학수 위원장은 “개인정보 보호법 개정을 계기로 국민 신뢰 기반의 디지털 대전환을 선도해 나가겠다”며 “이번 개인정보 유관학회와의 간담회를 시작으로 시민단체, 산업계 등과도 적극적으로 소통하고 협력해 하위법령을 합리적으로 정비하고 개인정보 정책을 개선하겠다”고 강조했다. [관련기사 : https://www.edaily.co.kr/news/read?newsId=03394806635541680&mediaCodeNo=257] 

TOP