THRIVETECH

장바구니

인공지능이 아무것도 할 수 없게 하는 것을 어떻게 막을 수 있을까?

  • 인공 지능
  • 인공지능이 아무것도 할 수 없게 하는 것을 어떻게 막을 수 있을까?

인공지능은 텍스트와 비디오를 포함한 모든 종류의 이미지를 생성할 수 있습니다. 창작물의 제작자가 인간인지 어떻게 판단할 수 있을까요? 중요한 것은 누가 비디오나 이미지를 만들었는지가 아니라, 그것이 실제 상황을 반영하는지, 아니면 알고리즘이 작동하는지 여부입니다.

예를 들어, 인위적으로 조작될 경우 허위 정보 유포 도구로 사용될 수 있는 이미지의 진위 여부를 확인하는 것이 중요합니다. 이미지나 영상에는 추적성이 중요합니다. 딥페이크 그리고 과다출혈.

AI가 생성한 창작물을 나타내는 워터마크?

기술의 "젊은 실수"는 더 이상 없습니다. 여섯 손가락 디자인의 캐릭터나 현실적인 다리가 없는 디지털 휴머노이드에 의존할 수는 없습니다.

오늘날의 제작물은 더욱 신뢰할 만합니다. 2024년 10월, 구글 딥마인드 팀은 Scientific Journal에 논문을 게재했습니다. 자연 , SynthID 솔루션을 제안합니다 , (새 창).

그러면 인공지능 모델에서 파생된 모든 작품에 인간의 눈에는 보이지 않는 표시를 삽입할 수 있게 됩니다. 텍스트, 애니메이션, 이미지 등 어떤 형태든 가능합니다. 출처에 대한 의문이 있는 경우, 이 디지털 타투를 찾아보실 수 있습니다.

우회 가능한 마커

매장 내 의류에 부착된 도난 방지 장치를 제거하거나 무력화하는 기술은 항상 존재할 것입니다. 예를 들어 텍스트를 분석할 때, 단어 대체, 의역, 번역과 같은 의도적인 변경을 방지해야 합니다. 실험 결과, 길고 창의적인 텍스트가 더 효과적인 것으로 나타났습니다. 주제가 지나치게 사실적이거나 인위적인 방식으로 제시된다면 그만큼 효과적이지 않을 것입니다.

문제가 있는 콘텐츠를 파악하기 위해 기술에만 의존해서는 안 된다는 것은 분명합니다. 우리가 보는 영상, 이미지, 또는 텍스트를 비판적으로 평가하는 것은 우리의 책임입니다. 특히 작품에 감정적 또는 정치적 함의가 담겨 있다면 더욱 그렇습니다. 이러한 작품의 현실성과 관련성을 제대로 이해하기 위해서는 인간의 지성을 포기해서는 안 됩니다.

인공지능 모델의 설계 단계부터 통합해야 할 보호 조치

원래 보안 고려 사항은 대규모 언어 모델을 표적으로 삼는 모든 침해에 적용됩니다. 대규모 언어 모델은 쿼리를 이해하고 콘텐츠를 생성할 수 있는 머신러닝 메커니즘입니다. 2024년 10월, 프랑스 국가정보자유위원회(CNIL)와 프랑스 혁신연구소(LINC)는 두 건의 보고서를 발표하여 해당 분야의 주요 위험을 간략하게 설명했습니다.

역류 가능성도 있습니다. AI에게 질문을 하면 이전 훈련 세션의 개인 정보를 제공하게 됩니다. 또한, AI에게 사용자에게 기밀 정보를 공유하도록 요청하는 메시지를 작성하도록 지시했을 수도 있습니다. AI 훈련에 사용하기 전에 데이터 세트를 익명화하는 것이 중요합니다.

유해 반응을 예측하는 능력 또한 중요합니다. AI는 폭력적이거나 혐오스러운 콘텐츠를 제작하는 데 사용될 수 있습니다. 또는 악성 컴퓨터 프로그램을 개발하는 데 사용될 수도 있습니다.

안전 문화 구축

주요 보안 권장 사항은 문서에 제시되어 있습니다. (새 창),Agence nationale de securite des system d'information에 의해 설립되었습니다. , (새 창), 2024년 여름 이전.

이는 인공지능 모델을 개발하는 모든 프로세스, 즉 정보의 상류 품질부터 데이터 라이브러리, 알고리즘 규칙, 디지털 머신의 저장소(특히 클라우드)를 변경할 권한이 있는 사람을 식별하는 것까지 문서화하는 것이 중요하다는 점을 일깨워줍니다.

기술자뿐만 아니라 AI 도구를 점점 더 많이 사용하게 될 일반 대중도 이러한 원칙을 인지하는 것이 중요합니다. AI는 우리의 직업적 삶과 개인적 삶 모두에서 점점 더 중요한 역할을 할 것입니다.

ChatGPT 통합 자동화된 프로세스를 위해

댓글 남기기

귀하의 이메일 주소는 공개되지 않습니다. 필수 입력란은 *로 표시되어 있습니다.

ko_KRKorean