Llm 신뢰해도 될까? ··· «모델 절반이 ‘보안 위험’ 등급»

 Llm 신뢰해도 될까? ··· «모델 절반이 ‘보안 위험’ 등급»

최근 대부분의 조직이 ai 플랫폼을 활용하고 있다. 대규모 언어 모델 (llm) 은 기존 애플리케이션에 통합되거나 신규 애플리케이션에 포함돼 배포되고 있으며, 직원들이 직접 실험해 보거나 워크플로우에 도입하기 위한 도구로 선택되고 선택되고 있다.

하지만 사이버보안 전문가들은 CEO 의 압박이나 시장의 과장된 기대치가 있더라도 다른 애플리케이션 도입과 마찬가지로 철저한 리스크 관리 관점에서 관점에서 관점에서 관점에서 을 을 선택해야 한다고 경고했다.

사이버보안, ai, 프라이버시 전문가인 조셉 스타인버그는 조직에서 Ai 모델을 도입할 때 리스크 분석뿐만 아니라 명확한 정책, 절차, 기술 통제도 수반돼야 한다고 말했다 말했다.

그는 «실제로는 이 3 가지 중 어느 하나에도 충분한 투자를 하지 않은 조직이 대부분이며 대부분이며, llm 이 유발하는 보안 문제의 규모를 외면하고 있다 있다” 라고 지적했다.

스타인버그는 특히 “보안 침해 건수와 관계없이 사용자 프롬프트를 통한 데이터 유출 자체가 심각한 문제라는 점을 알아야 한다 한다” 라고 강조했다. 그는 “사용자들이 프롬프트에 무심코 개인 정보를 입력할 수 있으며, 본인은 그런 행동이 어떤 결과를 낳을지 전혀 인지하지 못하는 경우가 많다. 예컨대 한 조직의 IP 주소를 쓰는 10명이 특정 기술이나 기능 구현 방식에 대해 AI에 질문하기 시작하면, AI는 해당 조직이 그 기술을 사용하고 있으며 고급 지식은 부족하다는 사실을 학습하게 될 수 있다”라고 말했다.

« 보안 리스크, 생각보다 더 크다 크다 크다 크다 크다 크다 크다 크다 크다 크다

최근 발표된 한 연구는 llm 이 예상보다 훨씬 높은 보안 리스크를 갖고 있다는 점을 점을 시사했다.

사이버뉴스 (CyberNews) 연구팀은 공개된 정보를 바탕으로 10 개의 Ai 모델을 분석한 결과, 절반인 5 개 모델이 보안 리스크 평가에서 ‘B 등급 이하 이하’, 즉 위험도가 상대적으로 높은 수준으로 나타났다고 밝혔다. 나머지 절반인 앤트로픽 (anthropique), 코히어 (cohere), 미스트랄 (Mistral) 등은 위험도가 낮은 것으로 것으로 평가됐다.

반면 오픈 Ai (Openai) 와 01.ai 는 높은 위험도를 나타내는 D 등급을 받았으며, 인플렉션 Ai (inflexion Ai) 는 f 등급으로 평가돼 치명적인 보안 리스크를 지닌 것으로 것으로 나타났다.

연구팀은 10 개 업체 중 5 곳이 데이터 유출 사고를 겪은 바 있다고 있다고 밝혔다. 이 중 오픈 Ai 는 분석 시점으로부터 불과 9 일 전에도 데이터 누출 사고가 발생했으며, 총 1 140 건으로 가장 많은 유출 사례를 사례를 기록했다. 퍼플렉시티 Ai (perplexité Ai) 의 경우 13 일 전 유출 사고로 190 개의 기업 인증 정보가 탈취된 것으로 추정된다고 연구팀은 연구팀은 언급했다.

이에 대해 오픈 ai 대변인은 cso 닷컴에 “ai 보안에 대한 연구를 환영하며, 사용자 보안과 프라이버시를 매우 중요하게 생각한다. 보안 프로그램의 진행 상황을 투명하게 공개하고 있으며 위협 인텔리전스 보고서를 정기적으로 발표하고 있다. 기사에 언급된 보고서를 요청했으나 접근 권한이 부여되지 않아 해당 데이터나 방법론을 평가할 수 수 없었다.

Sans 연구소 수석 연구원 로버트 T. 리는 해당 보고서에 대해 “대부분의 llm 이 기본적인 보안 스니핑 테스트를 통과하지 못한다. D 나 F 등급 평가에 매주 발생하는 유출 사고까지 고려하면, 해당 기업들이 보안을 고려하고 않다는 않다는 점은 분명해 보인다 보인다 라고 지적했다.

CSO 를 위한 보안 조언

리는 CSO 가 llm 을 승인하기 전 다음 항목을 반드시 고려해야 한다고 말했다 말했다:

  • 학습 데이터: 모델이 어디서 정보를 수집했는지 파악해야 한다. 웹 데이터를 무작위로 긁어오면 조직의 정보가 노출될 수 수.
  • 프롬프트 기록: 질문이 서버에 남아 있다면 다음 유출 사고 때 그대로 드러날 수 수 있다.
  • 자격 증명: 도난당한 api 키나 취약한 비밀번호는 공격자에게 좋은 먹잇감이 된다. 다단계 인증 (MFA) 과 실시간 경보 도입이 도입이.
  • 인프라: Tls 설정이 철저한지, 패치가 제때 적용되는지, 네트워크가 완전히 격리됐는지 확인해야 한다. 미완성 설정은 공격당할 가능성이 높다.
  • 접근 통제: 역할별 권한을 명확히 설정하고, 모든 Ai 호출을 기록해 SIEM / DLP 시스템에 로그를 전송해야 한다. 섀도 ai 는 보이지 않는 위협이다.
  • 침해 사고 대응 훈련: 침해 사실을 즉시 통지하도록 요구하고, api 키 유출이나 프롬프트 삽입 공격 상황을 시뮬레이션해 실제 상황에 대비해야 대비해야 한다.

리는 «llm 은 은행 금고를 지키듯이 다뤄야 한다 한다 한다 라며 라며 과장된 과장된 기대는 잊고, 미션 크리티컬 시스템과 동일하게 엄격한 검증을 거쳐야 한다. 그렇게 하면 하면 의 장점을 누리면서도 백도어를 활짝 열어두는 실수는 피할 수 있다 있다 있다 있다 라고 라고 조언했다.
dl-ciokorea@foundryco.com



Source link

Related post