[해외] Anthropic, 최첨단 AI 개발의 투명성 필요성 강조: 안전 및 책임성 확보를 위한 제안

본문
최첨단 AI 개발, 투명성 확보 핵심 과제로 떠오르다
최근 앤트로픽(Anthropic)은 빠르게 진화하는 최첨단 인공지능(AI) 시스템 개발에 있어 투명성 확보가 매우 중요함을 강조하며, 이는 대중의 안전을 보장하고 개발 주체의 책임성을 명확히 하는 데 필수적이라고 역설했습니다. 앤트로픽은 이러한 목표를 달성하기 위해, 혁신을 저해하지 않으면서도 안전 관행에 대한 명확한 공개 의무를 설정할 수 있는 '목표 지향적 투명성 프레임워크'를 제안했습니다. 이 프레임워크는 가장 큰 규모의 AI 시스템 및 개발자에게만 적용되는 것을 원칙으로 합니다.
제안된 프레임워크의 핵심 요소 중 하나는 적용 대상을 연간 수익이나 연구 개발(R&D) 지출과 같은 특정 기준을 충족하는 주요 모델 개발자로 제한하는 것입니다. 이는 규제의 실효성을 높이면서도, 사회에 미치는 영향력이 큰 AI 시스템에 대한 관리를 집중하려는 의도를 담고 있습니다.
또한, 프레임워크는 '보안 개발 프레임워크(Secure Development Framework, SDF)'의 수립을 의무화할 것을 제안합니다. SDF는 화학, 생물학, 방사능, 핵(CBRN) 위험과 같이 예측 불가능하고 중대한 위험을 평가하고 이를 완화하기 위한 구체적인 절차와 방법을 명시해야 합니다. 이 SDF는 대중에게 공개되어야 하며, 개발사는 해당 프레임워크 준수 여부에 대한 자체 인증을 의무적으로 수행해야 합니다. 이는 AI 개발 과정의 투명성을 높이고 잠재적 위험에 대한 사회적 감시를 가능하게 할 것입니다.
이와 함께, 앤트로픽은 AI 시스템의 테스트, 평가, 위험 완화 절차를 요약한 '시스템 카드(System Cards)'의 발행을 촉구했습니다. 이 시스템 카드는 정책 입안자와 일반 대중이 AI 시스템의 잠재적 위험과 해당 시스템의 안전 조치를 이해하는 데 필수적인 정보를 제공할 것입니다. 또한, 내부 고발자 보호 역시 중요한 요소로 다루어졌습니다. 규정 준수에 대한 허위 진술을 법적 위반으로 규정함으로써, 내부 고발자가 불이익 없이 정보를 제공할 수 있는 환경을 조성하여 투명성을 더욱 강화하려는 취지입니다.
앤트로픽은 이러한 유연하고 적응 가능한 투명성 기준이 산업 전반의 모범 사례를 표준화하고, AI 기술이 야기할 수 있는 잠재적 위험에 대한 사회적 논의와 추가적인 규제 필요성 판단에 기여할 수 있다고 강조했습니다. 궁극적으로 이러한 노력은 책임 있는 AI 개발을 촉진하고, 예측 불가능한 치명적 사고를 예방하여 AI의 긍정적인 발전을 유도하려는 목적을 가지고 있습니다. AI 기술이 사회에 깊이 통합될수록 그에 상응하는 윤리적, 안전적 고려가 필수적이라는 점을 재확인하는 중요한 시사점이라 할 수 있겠습니다.
체크포인트
최첨단 AI 개발에 있어 공공 안전과 책임성 확보를 위한 투명성 강화가 요구됩니다.
주요 AI 시스템 개발자를 대상으로 하는 목표 지향적 투명성 프레임워크가 제안되었습니다.
보안 개발 프레임워크(SDF) 공개 및 준수 자체 인증이 핵심 요소로 포함됩니다.
AI 시스템의 테스트, 평가, 완화 절차를 요약한 '시스템 카드' 발행이 촉구됩니다.
내부 고발자 보호 강화를 통해 규정 준수 관련 허위 진술에 대한 법적 책임을 명시합니다.
출처 및 링크
Anthropic News: The Need for Transparency in Frontier AI
댓글목록0