AI/IT News

아직 완성된 상태 아니다? -> 기업이 ‘생성형 AI’ 정책을 만들어야 하는 이유

SeokjunMan 2023. 8. 24. 06:58

< 기사 요약 >

많은 기업이 생성형 인공지능 도구를 테스트 및 배포하며, 기밀데이터의 잠재적 유출, AI 오류, 악의적 공격, 규제위반의 위험에 노출되고있다고 한다.

 

예를들어 최근 2023년 4월 삼성 반도체 사업부가 사업장 내 챗 GPT를 허용하자, 기업 기밀정보가 유출되었다.

한 엔지니어가 오류를 확인한다는 목적으로 챗GPT에 기밀 소스 코드를 붙여 넣었고, 다른 엔지니어는 챗GPT와 코드를 공유했으며, 코드 최적화를 요청하기도 했다.  그러나 챗 GPT, 오픈 AI는 정보삭제가 불가능하므로 상당한 주의를 요한다.

 

하지만 비즈니스 리더들은 매출증대와 혁신촉진이라는 2가지를 목표로 생성형 AI도구를 도입하려는 계획을 세우고 있으며, 이러한 AI의 가장 큰 이점으로 직원 생산성이 꼽혔으며, 고객참여(챗봇을 통한), 연구개발이 각각 2위와 3위로 꼽혔다. 언스트 앤 영의 설문조사 결과에 따르면 향후 3년 이내, 대부분 비즈니스 리더가 생성형 AI를 도입할 계획이며 현재 리더의 82%는 기업이 이러한 생성형 AI에 투자해야한다고 보고 있다.

 

그러나 가트너의 연구 결과에 따르면 대규모 언어모델(LLM)과 다른 생성형 AI 애플리케이션이 '완성된 상태'가 아니라는 점이 핵심 문제이다. 정확성 문제, 개인정보보호 및 보안 취약점 등 여전히 해결해야 할 문제들이 남아있다.

 

AI 사용에 대한 위험요소를 완화하기 위해 계층화된 보안 및 위험관리접근방식이 필요하며, 입력내용 필터링과 같은 방법으로 원치않는 또는 불법적인 입력 및 출력을 줄일 수 있다. 개인정보보호와 데이터보호 위험은 프롬프트 데이터 저장소 호스팅 옵트아웃과 공급업체가 기업 데이터를 사용해 모델 학습 금지 등으로 완화할 수 있다.

 

하지만 AI의 이점은 위험을 능가한다. 생산성 향상과 일하는 방식의 혁신 가능성으로 크게 인정받고 있으며, 인사이트 엔터프라이즈 같은 회사에서도 성공한 AI활용 사례를 보여주고 있다.

 

< 내 생각 >

- 생성형 AI의 문제점이 무엇일까?

 

생성형 AI앱은 정확하고 사실만을 말하는 것처럼 보이나, 그렇지 않은 데이터도 제시하는 '환각현상'을 일으키는 것이 핵심 위험이다. 사람들의 질문을 통해 얻은 데이터가 정확하다고 가정하기 때문이다. 또한 앞서 말한 정보유출에 관련된 '보안'이다. 의도치 않게 기업의 데이터 유출, 해킹 등으로 타인의 지적재산권을 침해할 수 있다.

 

- 대규모언어모델과 생성형 AI애플리케이션의 차이점?

 

비슷한 점이 많으나, 목표와 사용방식에 차이점이 있다.

대규모 언어모델 (LLM)은 OpenAI모델들을 포함하여 수백억개의 파라미터를 가진 신경망 기반의 언어모델이다. 대량의 텍스트 데이터로부터 학습하며 주어진 입력에 대해 자연스러운 텍스트를 생성하는 능력을 갖고있다. 예를들어, 질문에 답변하거나 주어진 문장을 완성하는 것 등.

 

생성형 AI애플리케이션은 대규모 언어모델과 같은 기술을 기반으로 하나, 보다 특정한 목적 혹은 작업에 초점을 맞춘 애플리케이션이다. 예를들어, 챗봇시스템에서 고객서비스 질문에 답변하거나, 자동으로 뉴스기사 혹은 소설가처럼 긴 문장 만들기 등과 같은 특정 작업들이다.

즉, LLM의 일반적인 기능에서 추가적인 제약조건 혹은 규칙들로 구체화되어 특정작업에 적합하게 만들어진다.

 

 

 

기사 출처, 원문보기:https://www.itworld.co.kr/topnews/304459#csidx1612c6ed0df995090cd7db37fabc629 

 

“아직 완성된 상태 아니다” 기업이 ‘생성형 AI’ 정책을 만들어야 하는 이유 

많은 기업이 생성형 인공지능 도구를 테스트하고 배포하면서, 기밀 데이터의 잠재적인 유출은 물론이고 AI 오류, 악의적 공격, 규제 위반 등의 위

www.itworld.co.kr