기술 스터디 & 뉴스 스크랩

[기술 스터디] 삼성 SDS_생성형 AI로 사이버보안을 강화하는 방법

suuuullloc 2023. 11. 17. 17:41
 

생성형 AI로 사이버보안을 강화하는 방법 | 인사이트리포트 | 삼성SDS

챗GPT의 급부상은 2023년 가장 중요한 화두입니다. 핵심 논제는 생성형 AI 챗봇과 LLM이 사이버보안에 미치는 잠재적인 영향입니다. 민감한 비즈니스 정보를 첨단 자가학습 알고리즘과 공유하는 부

www.samsungsds.com


# 참고자료 : https://www.itworld.co.kr/techlibrary/311876#csidx973f1264e8a2e758d10e50c3f1541b5

 

“AI 위협은 AI로 막는다” 보안팀의 효과적인 AI 도입 전략 - DeepDive

마케터부터 개발자, 웹툰 작가, 콜센터 직원까지 생성형 AI는 다양한 분야에서 업무 효율을 개선하지만, 위협 행위자의 활동에도 도움을 준다. 또

www.itworld.co.kr

 

# 생성형 AI 챗봇과 LLM(Large Language Model)이 사이버보안에 미치는 잠재적인 영향은 무엇일까? 민감한 비즈니스 정보를 첨단 자가학습 알고리즘과 공유하는 부분에 대한 우려부터 이를 사용하여 공격을 강화하는 악의적 행위자에 이르기까지 새로운 AI 기술이 가져올 수 있는 보안 위험에 대해서는 많은 논란이 있다.

생성형 AI 챗봇과 LLM으로 인해 발생하는 보안 위험은 상당히 크다. 그러나 생성형 AI는 여러 방식으로 기업의 사이버보안을 강화하고 보안팀에 꼭 필요한 사이버 범죄 활동에 대응하기 위한 강력한 힘을 제공할 수도 있다.

취약점 스캔 및 필터링

생성형 AI 모델을 사용하면 보안 취약점 스캔과 필터링 역량을 대폭 강화할 수 있다. 오픈AI의 코덱스(Codex) API가 C, C#, 자바, 자바스크립트와 같은 프로그래밍 언어를 위한 효과적인 취약점 스캐너가 될 수 있다. 예를 들어, 다양한 언어에서 안전하지 않은 코드 패턴을 탐지해 표시하는 스캐너를 개발하면 개발자는 잠재적 취약점에 선제적으로 대처할 수 있다. 필터링의 경우에도 생성형 AI 모델은 인간 보안 담당자가 놓칠 수 있는 위협 식별자를 설명하고 유의미한 맥락을 추가할 수 있다.

 

애드온 및 PE 파일의 API 분석

# 생성형 AI/LLM 기술을 사용하면 규칙을 구축하고 IDA나 기드라(Ghidra)와 같은 리버스 엔지니어링 프레임워크를 기반으로 인기 있는 애드온의 구조를 분석할 수 있다. 또한 LLM은 애플리케이션의 통신에도 도움이 되며, PE(Portable Executable) 파일의 API를 분석해서 어떤 용도로 사용되는지 알려줄 수 있다. 이를 통해 보안 연구원은 PE 파일을 살펴보면서 그 안의 API 통신을 분석하는 데 소비하는 시간을 줄일 수 있다.

 

위협 사냥 쿼리(Threat Hunting Queries)

# 보안 방어자는 챗GPT 및 기타 LLM을 활용해서 위협 사냥 쿼리를 생성함으로써 효율성을 높이고 대응 시간을 단축할 수 있다. 챗GPT는 야라(Yara)와 같은 맬웨어 연구 및 탐지 툴을 위한 쿼리를 생성해 방어자가 잠재적인 위협을 신속하게 식별 및 완화하도록 돕는다. 끊임없이 진화하는 위협 환경에서 견고한 보안 태세를 유지하는 데 매우 유용하다. 특정 요구사항, 기업이 탐지 또는 모니터링하고자 하는 특정 위협을 기반으로 규칙을 맞춤 설정할 수도 있다.

 

공급망 보안 개선

# 생성형 AI 모델을 사용해 공급망 보안 위험에도 대처할 수 있다. 예를 들어, 보안업체 시큐리티스코어카드(SecurityScorecard)는 지난 4월 오픈AI의 GPT-4 시스템과 자연어 검색을 통합한 새로운 보안 등급 플랫폼을 출시했는데, 회사 측에 따르면 고객은 업체 세부정보를 포함한 비즈니스 생태계에 대해 개방형 질문을 하고 답변을 검토해 위험 관리 의사 결정을 내릴 수 있다.

 

공격에서 생성형 AI 텍스트 감지

# LLM은 텍스트를 생성할 뿐 아니라 AI로 생성된 텍스트를 감지하고 워터마킹하는 기능도 갖추고 있다. 공격에서 AI로 생성된 텍스트를 식별하면 피싱 이메일과 다형성(polymorphic) 코드 감지에 도움이 된다.

 

보안 코드 생성 및 전송

# LLM은 보안 코드를 생성하고 전송하는 용도로 모두 사용할 수 있다. 챗GPT는 침해된 이메일 계정의 로그인 시도를 확인하기 위한 마이크로소프트 365 디펜더 헌팅 쿼리를 제공할 수 있다. 시스템에서 공격자를 차단하고 비밀번호 변경 필요성을 파악하는 데 효과적이다. 시스템이 KQL 프로그래밍 언어와 호환되지 않을 때는 프로그래밍 언어 스타일을 변환할 수 있다.

 

가장 중요한 선결 과제는 '안전한 사용 환경'

# 기술이 발전이 늘 그러하듯 AI와 LLM은 위험 관점에서 양날의 검이다. 생성형 AI는 오래된 구조적 데이터를 기반으로 하므로 보안 및 방어를 평가할 때만 출발점으로 삼는 것이 현명하다.AI 기반 챗봇을 정기적으로 업데이트하고 LLM의 올바른 동작을 감독하는 인력을 마련하고 정기적인 테스트와 평가를 통해 잠재적인 약점이나 취약성을 파악하면 위협에 효과적으로 대처할 수 있을 것이다.


느낀점

: 생성형 AI가 이렇게 다양하게 보안에 쓰일 수 있다니 놀라웠다. 이 부분도 각광받는 미래요소가 될 것 같다는 생각이 들었다. 그러나 이렇게 보안에 쓰일 수 있는만큼 해킹에 쓰일 가능성도 높을 것이다. 양날의 검이니만큼 잘 활용해야 할 것 같다.