
지난해 노벨 화학상 수상자 명단에 낯선 이름이 올랐다. 구글 딥마인드의 CEO 데미스 허사비스와 존 점퍼다. 이들은 인공지능(AI) 기반 단백질 구조 예측 모델 ‘AlphaFold’를 개발해 생명과학 및 화학의 난제를 해결하는 데 기여했다. 이처럼 생성형 AI(LLM)는 과학적 창의성의 영역까지 침투했다.
과학 연구의 창의적 영역에 진입한 AI
AI는 반복 작업을 넘어 과학 및 공학 분야에서 단백질 구조 예측, 신약 탐색, 실험 설계, 논문 초안 작성 등 창의적 단계에까지 활용되고 있다.
이에 따라 AI(LLM)가 단순히 실험 도구인지, 논문의 공동 저자 자격이 있는지를 두고 논의가 이어지고 있다. 이를 파악하고자 지스트신문은 GIST 연구자(학부생, 석사/박사과정생, 박사후 연구원, 교수진)를 대상으로 설문을 진행했다. 2025년 4월 8일부터 10일까지 3일간 총 48명이 응답에 참여했다.
GIST 연구자 90%, 생성형 AI 사용
전체 응답자 중 43명(89.6%)이 현재 연구실에서 생성형 AI를 사용한다고 답했다. 사용 빈도는 ‘거의 매일’이 22명(45.8%)으로 가장 많았으며, ‘주 1~2회(12명, 25.0%)’, ‘필요할 때 가끔(4명, 8.3%)’, ‘사용하지 않음(2명, 4.2%)’ 순이었다. AI 활용 목적은 ‘논문 초안 작성, 요약, 번역(33명, 76.7%)’이 가장 많았고, ‘실험 데이터 분석(16명, 37.2%)’, ‘시뮬레이션 및 모델링(14명, 32.6%)’, ‘실험 설계 최적화(9명, 20.9%)’, ‘단백질 구조 예측 및 분자 디자인(6명, 13.9%)’, ‘신약 후보 도출(5명, 11.6%)’ 등도 언급됐다.
AI의 창의 기여, 70% 이상이 인정
GIST 연구자들은 AI의 창의 기여 가능성을 인정하는 방향으로 답했다. AI의 창의적 기여 가능성에 대해 ‘매우 그렇다(10명, 20.8%)’, ‘어느 정도 그렇다(24명, 50.0%)’로 응답한 비율이 전체 응답자의 약 70.8%였다. 반면, ‘잘 모르겠다(11명, 22.9%)’, ‘별로 그렇지 않다(2명, 4.2%)’도 존재했다.
공저자 인정은 75%가 반대
여전히 AI의 논문 공저자가 등재에 대해 신중한 입장이 많았다. ‘반대(30명, 62.5%)’, ‘유보(6명, 12.5%)’ 입장이 전체 응답자의 약 75%(36명)로 소극적이었다. 이유로는 ‘법적 책임 불가(14명, 29.2%)’, ‘창의성의 정의 모호(12명, 25.0%)’, ‘윤리·법적 문제(11명, 22.9%)’, ‘기존 저자 기준과의 충돌(9명, 18.8%)’, ‘기술 수준의 한계(8명, 16.7%)’ 등이 꼽혔다. 한 연구자는 “AI는 의도와 책임이 없어 아무리 뛰어난 분석력을 갖췄더라도 인간과 동일한 지위를 줄 수 없다”라고 지적했다. 또 다른 응답자는 “AI는 내가 말을 걸지 않으면 문제를 제기하거나 해결하지 않는다”며 자율성의 부재를 지적했다.
국제 학술지, AI 공저자 인정에 신중
AI가 과학 연구에 실질적으로 기여하면서, 글로벌 과학계도 AI의 공저자 등재 문제를 본격적으로 논의 중이다. 2023년 1월, Nature는 “ChatGPT 같은 대형 언어 모델(LLM)은 저자 기준을 충족하지 않는다”며, ‘방법(Method)’ 항목에 LLM 사용은 반드시 명시할 것을 권고했다. 또한 ‘저자라는 지위가 연구 결과에 대한 책임(accountability)을 수반하며, 이는 AI에 적용될 수 없다’고 강조했다. 공저자는 단순히 공헌만으로 인정되는 것이 아니라, 윤리적 책임과 재현 가능성까지 감당할 수 있는지를 포함된다는 기준을 재확인한 것이다.
같은 해 3월, Science 편집장 Holden Thorp는 사설을 통해 “ChatGPT가 생성한 글을 논문에 포함하는 것은 원칙적으로 금지된다”라고 밝히며, 위반 시 표절이나 연구 부정행위로 간주될 수 있다고 경고했다. Science의 AI 저자 정책은 엄격하다. AI를 저자나 공저자로 등재할 수 없고, AI가 작성한 콘텐츠를 인용하는 것도 허용되지 않는다. 사용 시에는 해당 사실을 명시하고, 도구명, 버전, 프롬프트까지 구체적으로 공개해야 한다. 그리고 ‘저자’는 결과의 정확성, 인용의 적절성, 표절 여부는 물론, AI로 인한 편향 가능성까지 책임져야 한다. 더불어 Science는 심사자가 AI를 사용해 리뷰를 작성하는 것도 금지하고 있다. 논문 기밀 유지 원칙을 침해할 수 있기 때문이다. AI가 생성한 이미지나 영상 등 멀티미디어 콘텐츠 역시 편집자의 명시적 허락 없이는 사용할 수 없다. 다만, AI 자체를 다룬 논문에 한해서는 사례별로 예외 허용 가능성을 열어두고 있다. 마지막으로 Science는 “AI 생성 콘텐츠에 대한 기준은 향후 저작권법과 윤리 기준의 변화에 따라 조정될 수 있다”라는 입장이다.
새로운 윤리 정립 필요
GIST 연구자들은 AI를 협업자로 인식하고 있으나, 공저자로 인정하는 데엔 윤리·법적 고민이 수반된다는 점을 인식하고 있다. 국제적 논의에서도 AI의 기여도와 무관하게 공저자는 책임과 검증 가능성을 충족해야 한다는 기존 원칙을 다시 강조하고 있다. 그리고 AI가 이 기준을 충족하는지에 대한 질문은 여전히 유효하다.