Home Blog

제4회 광주과기원 문학상 공모

0

제4회 광주과기원 문학상 공모 신청서 및 원고 작성 양식_분야_소속_성명

안녕하세요. <지스트신문>입니다.

<지스트신문>에서는 원내 구성원들의 문학적 소양과 창작 역량을 발휘할 수 있는 기회를 마련하고자 제4회 지스트 문학상을 아래와 같이 공모합니다.

1. 분야 및 분량

운문: 3편 (분량제한 없음)
산문(소설, 수필, 희곡 등): 80매 내외 (200자 원고지 기준)

2. 대상

GIST 학부생 및 대학원생(휴학생 포함), 직원

3. 접수 기간

2025년 7월 28일 ~ 2025년 8월 24일

4. 접수 방법

1. <지스트신문> 홈페이지(www.gistnews.co.kr) 접속
2. 공지사항에서 신청서 양식 다운로드
3. 작품 작성 후 editor@gist.ac.kr로 제출

– 파일 제목: [문학상] 분야_소속_성명
(시의 경우 3편을 하나의 파일로 묶어서 접수)

5. 시상 내용

분야별 당선작 (각 1명) : 상금 35만원
분야별 가작 (각 1인) : 상금 15만원

수상작은 <지스트신문> 제66~67호에 게재 예정

6. 유의사항

1) 응모작은 미발표 순수 창작품이어야 합니다.
2) 다른 매체에 중복 응모되거나 표절임이 확인된 작품은 입상을 취소합니다.
3) 과제물 또한 제출이 불가합니다.
4) 응모작은 반환하지 않습니다.
5) 응모작 수준에 따라 시상 범위와 등급별 인원수가 달라질 수 있습니다.

7. 문의처

<지스트신문> 이메일: editor@gist.ac.kr
<지스트신문> 편집장: 010-9691-7234

지스트 구성원 여러분의 많은 관심과 참여를 부탁드립니다. 감사합니다.

 

지난 수상작 보기

쓰는 것들은 모두 닳아서 (제3회 광주과기원 문학상 – 시 가작)

시는 30분만에 휘갈기는 것이다 (제3회 광주과기원 문학상 – 시 가작)

옥죄는 줄 (제2회 광주과기원 문학상 – 소설 가작)

스위스를 그리며 (제2회 광주과기원 문학상 – 소설 당선작)

해적 (제1회 광주과기원 문학상 – 희곡 가작)

안개꽃 (제1회 광주과기원 문학상 – 시 당선작)

산타를 발견했다 (제1회 광주과기원 문학상 – 단편소설 당선작)

쉬운 태도에 어려운 성질은 깃들 수 없다

0
사진 제공 = 조시현 (화학,22)

‘나는 그냥 다 사이좋게 지냈으면 좋겠어.’
현대에는 온갖 것들이 일종의 싸움의 장이다. 그래서 그런 말도 쉽게 나온다. 이상한 주제로 싸우지 말고, 다들 좋게 좋게 지내자고 말이다. ‘나는 중립이다’라고 말이다. 한 발짝 떨어져 바라본다는 것, 즉 중립적이고 객관적인 태도라는 것은 이성을 최고의 미덕으로 삼는 현대 사회에서는 그리 이상한 관점은 아니다. 오히려 권장된다면 권장되는 태도이다. 객관적이고, 합리적으로 사고하고자 하는 것. 특히나 과학기술원의 이공계 전공을 하는 사람들이라면 이런 태도를 지향하지 않을 이유가 없다. 연구에서의 가장 중요한 덕목 중 하나라면 하나일 테니 말이다.
합리성과 객관성이란 결국 치열히 생각하고 고민한 결과물로서 비로소 얻을 수 있는 성질이다. 어떤 하나의 사소한 일 혹은 실험에도 관계에도 이 요소가 원인인지 어떤 일에 영향을 받았는지 온갖 지리멸렬한 고민을 하고서야 나오는 것이 합리이다. 양측 혹은 다양한 측의 의견을 듣고 그제서야 그것을 중재할 수 있는 가운데를 찾는 것이 중립이다. 중립(中立), 수많은 잣대의 정 가운데 선다는 말이다. 그것은 어디가 끝이고 자신이 서 있는 곳이 어떤 곳인지를 제대로 파악했을 때야 비로소 나올 수 있는 말인 셈이다. 그런데 그것이 너무 쉽게 쓰인다. 나는 객관적으로 문제를 판단하고 있다고, 한쪽에 치우치면 안 된다고 말하는 사람은 많다. 그러니 조롱과 비웃음은 그런 문제에 진득이 빠져있는 이들에게로 향한다. 대부분은 자신이 서 있는 그 선의 양 끝은커녕 주변도 재고 있지 못한 것 같음에도 말이다.
먹고살기는 더 힘들어진다고 하고, 정치는 피곤하고, 사람들은 마치 별것도 아닌 문제로 유난을 떠는 것 같고, 그러니 당장 나의 삶만 챙기기에도 급급하고. 아니, 사실 어떤 문제에 대해 쉽사리 나오는 객관성과 중립이란 결국 허울 좋은 말일 뿐이고 사실은 대부분이 그런 현대의 피로감에 찌들어 관심이 없다는 것에 가까울 것이다. 관심이 없다는 사실을 질책해야 한다고 생각하진 않으나 그토록 얻기 어려운 것에 대해 겨우 한 발짝 떨어지고 말을 얹지 않는 정도로 객관성과 중립을 표방하는 것은 너무 편리한 길이 아닌가. 나조차도 어렸을 때는 한 발짝 빠져서 바라보는 것 같은 모습이 멋져 보이기라도 했던 것 같다. 기계적인 중립이라든지, 냉소주의라든지 그런 태도가 좋다고. 그렇게 싸워대고 고민하는 것이 의미 없다고 온갖 것에 냉소와 조롱을 표했다. 직접 만나지도 않은 가상의 사람들에 대해 비웃는 일은 정말이지 놀랍도록 쉽다. 그렇기에 그런 태도는 할수록 계속될수록 더 어려운 가능성을 생각할 수 없게 된다. ‘참여’하지 않고 한 발짝 떨어진 채로는 자신이 아는 것이 오직 사실이라고 밖엔 생각하지 않는다. 객관이며 중립이라는 말은 이미 저만치 멀어진 지 오래다. 우리가 사는 지금의 순간에도 파도가 그토록 치는데 노를 젓지 않는다면 그 배가 원하는 위치에 다다를 수 있을까.
쉬운 태도에 어려운 객관성이란 깃들 수 없다. 문제에 치열히 싸우고 노력하는 이들을 어리석다고 손가락질하고, 비웃고 조롱하면 그만이라는 태도. 그런 문제는 피곤할 뿐이니 넘어가자는 태도. 그냥 모두 사이좋게 지내면 그만이라는 태도. 그것은 중립으로서 존재하는 것도 문제를 제대로 인식하고 있는 것도 아니다. 다만 그런 좋은 단어들의 뒤에 숨어 문제들을 외면하고 있을 뿐인 것이다. 적어도 쉽게 풀릴 리 없는 현대 사회의 여러 문제로부터 중립을 이야기하기 위해선 그보다는 더 어려운 태도를 가질 필요가 있지 않을까. 비록 그리 엄격히 따지자면 단어가 사용조차 할 수 없을 정도로 복잡한 현대 사회에서 그러한 가치를 지향하기 위해선 흐르는 대로, 누군가 말하는 대로, 그렇게 따르고 따라서 자기 생각과 잣대 없이 가는 흐름에는 정말이지 시민이나 사람이 아닌 하나의 부품으로만 존재하게 될 것이다. 한 번 더 생각해 보자. 그것이 정말로 의미 없는 싸움인가? 의미 없는 논의인가? 라고 말이다. 냉소주의와 비관으로 생각하기를 멈춘다면 그렇게 굳은 사고는 유동적으로 움직일 수 없게 된다. 변화의 가능성을 염두에 두지 않은 태도는 객관이 아닌 아집이 된다. 너무나 쉽게 쓰이는 객관과 중립이라는 단어에, 조금 더 무게추를 달아볼 필요가 있지 않을까.

조시현 (화학,22)

 

사진 제공 = 조시현 (화학,22)

Can AI be Research Co-authors?

0

Last year, surprising names appeared on the Nobel Prize winners list for chemistry; Demis Hassabis and John Jumper of “Google Deepmind”. Specifically, the winners were awarded for developing “AlphaFold”, an AI-based protein structure prediction model that yielded significant contributions to solving challenges in the complex field of biology and chemistry, illustrating how generative AI (LLM) is now capable of entering the profound domain of scientific creativity.

 

AI has Entered the Creative Domain of Scientific Research

  As mentioned, AI is now involved not only in repetitive tasks in science and engineering, but also in the creative processes of research. For example, apart from its role in predicting protein structures, it can also be used to discover new drug candidates, optimize experimental designs and even draft research papers.

  However, this raises a critical question; should these AI (LLMs) be listed as mere methods (under the “Methods” section of a research paper) or are they worthy of being credited as the co-author? To dive deeper into this issue, GIST News has conducted a survey on how researchers at GIST integrate generative AI into their research processes, and most importantly, how they perceive its contributions. Overall, the survey was conducted for three days (from April 8, 2025 to April 10, 2025) where a total number of 48 GIST researchers (including undergraduate/graduate students, postdoctoral researchers and faculty) participated. 

 

90% of GIST Researchers Use Generative AI

  It was discovered that among respondents, 43 of them (89.6%) currently use generative AI in their labs, whereas 2 researchers (4.2%) did not and the remaining 3 respondents (6.3%) were unsure. In terms of AI use frequency, 22 respondents (45.8%)  answered that they used AI “almost daily”, whereas 12 respondents (25.0%) selected “1~2 times per week”. Additionally, 4 of the respondents (8.3%), with the remaining 2 respondents (4.2%), respectively answered “occasionally when needed” and “not at all”.

 

70% of GIST Researchers Acknowledge AI’s Creative Contribution

  Overall, the most common purposes for using AI was “drafting, summarizing and translating research papers” (16 respondents, 33.3%). Others used AI as a creative tool for analysis, such as for “experimental data analysis” (10 respondents, 20.8%), “experimental design optimization” (9 respondents, 18.8%) and “protein structure prediction and molecular design” (4 respondents, 8.3%).

  From these results, it can be observed that GIST researchers regard generative AI (LLM) not just as a tool but also as a creative partner. In particular, when researchers were given the statement “AI can make creative contributions”, 24 respondents (50.0%)  “somewhat agreed“, whereas 10 respondents (20.8%) “strongly agreed”. Thus, approximately 70.8% of the total respondents acknowledged the AI’s growing potential and contributions for creativity. On the other hand, 11 of the respondents (22.9%) said they were “not sure”, with 2 respondents (4.2%) responding with “not really”, and the remaining 1 respondent (2.1%) with “not at all”.

 

75% of GIST Researchers Oppose Listing AI as a Co-author

   However, the survey results showed that the majority of GIST researchers still remain cautious on the idea of naming generative AI as a co-author. Especially, out of 75% of  the total respondents (36 people), 30 respondents (62.5%) opposed the idea, whereas the remaining 6 (12.5%) were indecisive. 

  There were several reasons included for these judgements, such as “AI cannot bear legal responsibility” or “AI cannot properly assess the accuracy of the research findings”. Ultimately, only 20 respondents (41.7%) were supportive (or conditionally supportive) on listing AI as a co-author. Even then, these respondents only agreed under the precondition that human researchers would retain full supervision and responsibility.

  The most notable reason for opposing was “unclear responsibility” (14 respondents, 29.2%). This was followed by “ambiguity in the definition of creativity” (12 respondents, 25.0%), “ethical/legal issues” (11 respondents, 22.9%), “conflict with original authorship guidelines/standards” (9 respondents, 18.8%), and finally, “technological limitations” (8 respondents, 16.7%). These reasons reflected the researchers’ concern that while AI may generate knowledge, it lacked the overall ability to handle responsibility or make judgements. In particular, “unclear responsibility” was selected overlappingly by the majority of respondents, as there existed an ethical gray area on who should ultimately bear responsibility for the errors and misinterpretations made by AI. 

   Additionally, one respondent stated that “no matter how sophisticated AI becomes, without true “intent” and “accountability”, it shouldn’t be granted equal status to a human”. This comment highlights how some researchers still view AI as a simple “tool”. Another remarked that “AI won’t raise questions or solve problems on its own unless it is prompted”, criticizing AI’s lack of autonomy. Not only that, there were other respondents expressing that “even if the AI’s outputs are accurate, interpreting the research as a whole and taking overall responsibility must lie with humans.”

 

Global Debate on AI Co-athors

  As AI’s contribution to scientific research grows, the global science world/community has also started discussing on whether AI should be listed as a co-author.

  For instance, in January 2023, Nature declared that “Large Language Models (LLMs) such as ChatGPT do not meet authorship criteria”. This judgement was made from the rule and belief that “authorship implies accountability, which AI cannot fulfill”. Therefore, in the vast library of research papers, the use of AI must be disclosed in the “Methods” section (or somewhere else, if necessary). Ultimately, the journal had reaffirmed that co-authorship requires not just contribution but also ethical responsibility and reproducibility.

  In March (of the same year), the chief editor of Science, Holden Thorp, expressed in an editorial that “using ChatGPT-generated text in papers should be prohibited”. He had warned that any violations to this rule could be considered as plagiarism or scientific misconduct. Additionally, Science has shown even stricter AI policies; AI cannot be listed as an author or co-author, where even its generated content cannot be cited. Moreover, if AI was indeed utilized in the research process, the details (such as the tool’s name, model version and used prompts) must be disclosed in the “cover letter” and “acknowledgements” section. Eventually, “Authors” are expected to take full responsibility for the accuracy, citation and bias of AI-generated content. Consequently, if it is discovered that your use of AI was inappropriate, your thesis may be denied. Furthermore, Science prohibits reviewers from using AI (to write peer reviews), as this could violate the promise on manuscript confidentiality. Finally, any AI-generated images or multimedia must obtain explicit approval from the editors, where exceptions may be granted for papers directly about AI. Science has also stated that “the rules on AI-generated content may be adjusted to consider future changes in copyright law and ethical standards”.

  As shown, the global discussion emphasizes that no matter how significant AI contribution may be, authorship must still meet the standard of responsibility and verifiability, where AI is still being questioned if it is truly capable of fulfilling such criterias. 

 

New Ethics For A New Age of Science

  Overall, the survey conducted on campus revealed that a majority of GIST researchers already perceive AI not just as a tool, but also as a collaborative partner in creative research. However, at the same time, it indicated an inevitable need to redefine the philosophical and ethical standards for recognizing AI’s contributions. For instance, AI has increasingly assisted scientific research in more refined ways, such as helping in research planning and theoretical formulation, showing that it has even stepped into the deeper regions of creativity. 

  As always, technological advancements raise new ethical questions that we must confidently face. This time, we have to ask ourselves; “Is AI merely a tool or a fellow researcher?” This question surpasses simple and technical judgement, calling for a societal reflection on how we, as a community, should define and accept the changing concepts of “creativity” and “contribution”. Perhaps, the answer may lie not in the technology itself, but instead in the collective choices and agreements of our accepting and ever-changing community. 

Translated by Yoonseo Huh

3월 산불, 불씨 하나가 만든 재앙

0

전국적인 산불 발생, 그 피해는?

지난 3월 전국에서 30건이 넘는 산불이 연이어 발생했다. 동해안과 경북 경남 지역을 중심으로 대형 산불이 이어졌고 총 피해 면적은 약 4만 8천 ha에 달했다. 주택과 농가를 위협한 불길은 산림 인접 지역까지 번졌으며 이로 인해 3월 29일 기준 총 75명의 사상자가 발생했다. 산불은 진화 이후에도 긴 후유증을 남겼다. 이재민들의 피해 복구와 일상 회복까지는 상당한 시간이 소요될 것으로 보이며 일부 지역에서는 산불로 인한 미세먼지 농도 상승 등 2차 피해도 이어졌다. 본원이 위치한 광주 북구도 산불 산발 대응에 총력을 기울였다.

산불 확산 키운 복합 원인

지난 3월 영남 지역 산불 발생 당시, 21~22일 양일간 최고기온이 24~25도까지 오르며 초여름을 방불케 하는 날씨를 보였다. 기압 배치 불안정으로 안동에서는 초속 27.6m, 의성에서는 초속 21.9m의 강풍이 관측됐으며, 이는 1997년 이후 3월 기준 최대 순간풍속 기록이다. 전국 평균기온도 14.2도로 평년보다 7.1도 높아 역대 최고치를 기록했다. 이러한 이상 고온과 강풍은 산불 발생 위험을 높였고, 불길 확산을 가속하는 주요 요인으로 작용했다.
여기에 침엽수림이 약 40 %를 차지하는 우리나라 산림의 특성도 산불 악화를 부추겼다. 침엽수는 송진 등 가연성 물질이 많아 불이 쉽게 붙고, 고온·건조한 조건에서는 불꽃이 높이 치솟아 바람을 타고 빠르게 번진다. 이러한 특성은 대형 산불 발생 시 피해 규모를 키우는 요인이 된다. 산불 피해를 줄이기 위해서는 침엽수 위주의 산림 구조를 개선하고, 다양한 수종을 고르게 도입하는 노력이 필요하다.

산불 예방의 필요성

산불은 대부분 인위적 부주의로 발생한다. 산림청에 따르면 전체 산불의 약 71%가 불법 소각, 취사 부주의, 담배꽁초 투기 등 개인 부주의에서 비롯된다. 이를 방지하기 위해 정부는 ‘산불방지 국민행동강령’을 발표하고 국민 개개인의 실천을 강조하고 있다. 행동강령에는 ▲산림 인접 지역 내 흡연 금지 ▲산림 인접 지역 내 쓰레기 소각 금지 ▲산행 시 화기물 소지 및 흡연 금지 ▲산불 발견 시 즉시 119 신고 등의 수칙이 포함돼 있다. 작은 부주의 하나가 수천 헥타르의 산림과 소중한 생명을 위협할 수 있는 만큼, 경각심을 갖고 일상 속 예방 수칙을 철저히 지키는 자세가 필요하다.

GIST 연구자 90%, AI 사용… 연구 AI 공저자 논의

0
삽화 = 최정은 기자
삽화 = 최정은 기자

지난해 노벨 화학상 수상자 명단에 낯선 이름이 올랐다. 구글 딥마인드의 CEO 데미스 허사비스와 존 점퍼다. 이들은 인공지능(AI) 기반 단백질 구조 예측 모델 ‘AlphaFold’를 개발해 생명과학 및 화학의 난제를 해결하는 데 기여했다. 이처럼 생성형 AI(LLM)는 과학적 창의성의 영역까지 침투했다.

과학 연구의 창의적 영역에 진입한 AI

AI는 반복 작업을 넘어 과학 및 공학 분야에서 단백질 구조 예측, 신약 탐색, 실험 설계, 논문 초안 작성 등 창의적 단계에까지 활용되고 있다.
이에 따라 AI(LLM)가 단순히 실험 도구인지, 논문의 공동 저자 자격이 있는지를 두고 논의가 이어지고 있다. 이를 파악하고자 지스트신문은 GIST 연구자(학부생, 석사/박사과정생, 박사후 연구원, 교수진)를 대상으로 설문을 진행했다. 2025년 4월 8일부터 10일까지 3일간 총 48명이 응답에 참여했다.

GIST 연구자 90%, 생성형 AI 사용

전체 응답자 중 43명(89.6%)이 현재 연구실에서 생성형 AI를 사용한다고 답했다. 사용 빈도는 ‘거의 매일’이 22명(45.8%)으로 가장 많았으며, ‘주 1~2회(12명, 25.0%)’, ‘필요할 때 가끔(4명, 8.3%)’, ‘사용하지 않음(2명, 4.2%)’ 순이었다. AI 활용 목적은 ‘논문 초안 작성, 요약, 번역(33명, 76.7%)’이 가장 많았고, ‘실험 데이터 분석(16명, 37.2%)’, ‘시뮬레이션 및 모델링(14명, 32.6%)’, ‘실험 설계 최적화(9명, 20.9%)’, ‘단백질 구조 예측 및 분자 디자인(6명, 13.9%)’, ‘신약 후보 도출(5명, 11.6%)’ 등도 언급됐다.

AI의 창의 기여, 70% 이상이 인정

GIST 연구자들은 AI의 창의 기여 가능성을 인정하는 방향으로 답했다. AI의 창의적 기여 가능성에 대해 ‘매우 그렇다(10명, 20.8%)’, ‘어느 정도 그렇다(24명, 50.0%)’로 응답한 비율이 전체 응답자의 약 70.8%였다. 반면, ‘잘 모르겠다(11명, 22.9%)’, ‘별로 그렇지 않다(2명, 4.2%)’도 존재했다.

공저자 인정은 75%가 반대

여전히 AI의 논문 공저자가 등재에 대해 신중한 입장이 많았다. ‘반대(30명, 62.5%)’, ‘유보(6명, 12.5%)’ 입장이 전체 응답자의 약 75%(36명)로 소극적이었다. 이유로는 ‘법적 책임 불가(14명, 29.2%)’, ‘창의성의 정의 모호(12명, 25.0%)’, ‘윤리·법적 문제(11명, 22.9%)’, ‘기존 저자 기준과의 충돌(9명, 18.8%)’, ‘기술 수준의 한계(8명, 16.7%)’ 등이 꼽혔다. 한 연구자는 “AI는 의도와 책임이 없어 아무리 뛰어난 분석력을 갖췄더라도 인간과 동일한 지위를 줄 수 없다”라고 지적했다. 또 다른 응답자는 “AI는 내가 말을 걸지 않으면 문제를 제기하거나 해결하지 않는다”며 자율성의 부재를 지적했다.

국제 학술지, AI 공저자 인정에 신중

AI가 과학 연구에 실질적으로 기여하면서, 글로벌 과학계도 AI의 공저자 등재 문제를 본격적으로 논의 중이다. 2023년 1월, Nature는 “ChatGPT 같은 대형 언어 모델(LLM)은 저자 기준을 충족하지 않는다”며, ‘방법(Method)’ 항목에 LLM 사용은 반드시 명시할 것을 권고했다. 또한 ‘저자라는 지위가 연구 결과에 대한 책임(accountability)을 수반하며, 이는 AI에 적용될 수 없다’고 강조했다. 공저자는 단순히 공헌만으로 인정되는 것이 아니라, 윤리적 책임과 재현 가능성까지 감당할 수 있는지를 포함된다는 기준을 재확인한 것이다.
같은 해 3월, Science 편집장 Holden Thorp는 사설을 통해 “ChatGPT가 생성한 글을 논문에 포함하는 것은 원칙적으로 금지된다”라고 밝히며, 위반 시 표절이나 연구 부정행위로 간주될 수 있다고 경고했다. Science의 AI 저자 정책은 엄격하다. AI를 저자나 공저자로 등재할 수 없고, AI가 작성한 콘텐츠를 인용하는 것도 허용되지 않는다. 사용 시에는 해당 사실을 명시하고, 도구명, 버전, 프롬프트까지 구체적으로 공개해야 한다. 그리고 ‘저자’는 결과의 정확성, 인용의 적절성, 표절 여부는 물론, AI로 인한 편향 가능성까지 책임져야 한다. 더불어 Science는 심사자가 AI를 사용해 리뷰를 작성하는 것도 금지하고 있다. 논문 기밀 유지 원칙을 침해할 수 있기 때문이다. AI가 생성한 이미지나 영상 등 멀티미디어 콘텐츠 역시 편집자의 명시적 허락 없이는 사용할 수 없다. 다만, AI 자체를 다룬 논문에 한해서는 사례별로 예외 허용 가능성을 열어두고 있다. 마지막으로 Science는 “AI 생성 콘텐츠에 대한 기준은 향후 저작권법과 윤리 기준의 변화에 따라 조정될 수 있다”라는 입장이다.

새로운 윤리 정립 필요

GIST 연구자들은 AI를 협업자로 인식하고 있으나, 공저자로 인정하는 데엔 윤리·법적 고민이 수반된다는 점을 인식하고 있다. 국제적 논의에서도 AI의 기여도와 무관하게 공저자는 책임과 검증 가능성을 충족해야 한다는 기존 원칙을 다시 강조하고 있다. 그리고 AI가 이 기준을 충족하는지에 대한 질문은 여전히 유효하다.

흔들리는 대학언론, 이대로 괜찮을까

0

 

대학언론 위기 원인 파악, 새로운 돌파구 고안해야

지난해 11월 22일 더불어민주당 정을호 의원(이하 정 의원)이 대표로 대학언론법을 재발의했다. 호외 출간에 불이익을 받았던 <카이스트신문>, 3월 28일자로 교지편집비 제공이 중단된 동덕여자대학교 자치 언론 등 대학언론 위기는 현재진행형이다. 대학언론법 재발의 배경이 된 대학언론 위기를 살펴봤다.

발행 중단, 기사 검열, 지원비 삭감··· 이어진 대학언론 탄압

대학언론인 네트워크에 따르면 1991년부터 2022년 사이 인지된 대학언론 탄압 사례는 38건으로 ▲지면 발행·배포 중단(19건) ▲기사 삭제·검열(14건) ▲기자 해임·징계(11건) ▲재정보조 중단(5건) 등이다. 지난 2021년 11월 숭실대학교 학보사 <숭대시보>는 코로나19 사태 무리한 대면 수업 추진과 방역 대책, 의문스러운 성적평가 방식 등 대학을 비판하는 기사를 작성했다. 그러자 학교는 <숭대시보> 기자를 전원 해임하고 그해 11월 22일 발행 예정이던 종이신문의 배포를 중단시켰다. 이후 학생들의 반발이 거세지자 학교는 총장 간담회에서 기자 전원 해임 결정을 철회한 것으로 알려졌다. 그러나 복직 이후에도 편집권 침해가 계속돼 숭대시보는 ▲대학언론인네트워크 ▲숭실대 총학생회 ▲서울권 대학 언론연합회와 함께 ‘언론탄압대응TF’를 구성해 대학언론 탄압에 대한 비판의 목소리를 높였다. 대학언론 탄압은 최근까지도 이어지고 있다. 지난해 12월 9일 <카이스트신문>은 12.3 사태와 관련된 호외 출간에 불이익을 받았다. <카이스트신문>은 호외를 출간하며 “본 신문의 발행은 학교 본부와 무관하며, 신문의 내용은 학교 본부의 입장을 반영하지 않습니다”라는 내용의 공지를 냈다. 카이스트 측은 인쇄 예산을 제공할 수 없으며 학교 입장과 무관함을 밝혀달라고 요구했으며 이에 학보사 측은 전·현직 기자단 총 58명의 사비를 들여 총 4천 부의 신문을 인쇄했다고 밝혔다. 지난 3월 28일에는 동덕여대 교지편집위원회 <목화>가 교지편집비를 지원받지 못하게 되면서 존속이 위협받았다. <목화>는 동덕여대 이사장 행적과 학교의 비민주적 공학전환 추진을 비판한 바 있다. 그러자 학교는 교지편집비를 더는 지급하지 않을 것이지만 지면 발행 및 배포에 대한 승인 제도는 유지하겠다고 밝혔다. 이에 동덕여대 재학생 연합은 31일 성명을 내고 이어 고려대, 성균관대, 이화여대 등 5개 대학 지치언론도 “동덕여대는 학내 언론탄압을 멈춰라”라는 내용의 공동성명을 발표했다. 이처럼 대학언론은 학생의 알 권리와 건강한 담론의 장으로서 학내 민주주의를 지킨다는 역할에도 불구하고 다양한 압박에 노출돼있다. 대학언론인들은 신문의 포 및 발행 과정에서 학교의 허가를 받는 것을 넘어 편집권을 침해받기도 하고, 인건비 및 인력 부족으로 업무 과중에 시달린다며 구조적 문제를 해결해야 한다고 목소리를 높이고 있었다.

“대학언론 자유·독립, 법적 근거 마련” 대학언론법 재발의

사실 대학언론법이 발의된 것은 이번이 처음이 아니다. 방송법과 신문법이 “방송편성의 자유와 독립은 보장된다”라는 규정을 통해 언론의 자유를 성문화하고 있는 것과 달리 대학언론의 자유와 독립에 대한 법적 장치는 부재하다. 따라서 대학언론의 자유 및 독립 보장과 지원 유무는 모두 대학 본부의 자율에 맡겨져 있었다. 이에 대학언론을 위한 법적 근거 필요성이 대두됐고, 2022년 윤영덕 의원이 처음으로 대학언론의 자유와 독립에 대한 법적 근거를 명문화한 고등교육법 개정안, 통칭 대학언론법을 발의하게 됐다. 하지만 당시 법안이 통과되지 못했고 이번 발의는 거기서 수정을 거쳐 재발의됐다. 정 의원은 “언론의 자유는 헌법 제21조에 명시돼 있는 기본권”이며 대학언론마저 학교의 정치적 이해관계에 휘둘려서는 안 된다고 재발의 사유를 밝혔다.
또한 지난 4월 11일에는 정 의원 주최로 ‘대학언론의 위기 해결을 위한 대학언론법 입법 간담회’가 국회의원회관 제6간담회실에서 열렸다. 이번 간담회에는 교육부 대학규제혁신추진단과 국회 교육위원회 입법조사관을 비롯해 주간교수, 간사, 전·현직 학생기자, 더불어민주당 전국대학생위원회 등 전국 각지의 대학언론인 약 30명이 참석했다. 정 의원은 개회사에서 “대학언론인들이 겪는 심각한 재정 부담과 반복되는 편집권 침해 문제에 대해 교육부가 보다 적극적인 관심을 갖고 제도적 개선에 나서야 한다”라고 강조했다. 윤희각 부산외국어대학교 교수(이하 윤 교수)는 ‘한미 대학신문의 편집권 실태’를 주제로 발표하며, “대학언론의 위기를 극복하고 나아갈 방향을 찾기 위해서 대학언론 전반에 대한 현황 파악 목적의 전수 조사가 필요하다”고 말했다. 또한 전 세계 대학언론의 롤 모델이던 미국도 구독자 이탈과 광고 및 기부금 수익 악화로 생존의 고민에 빠지고 있다며 “대학언론은 ‘오래된 학생 신문’에서 ‘디지털 미디어 혁신의 캠퍼스 센터’로 전환돼야 미래를 보장받을 수 있다”라고 말했다. 더불어 원지현 대학언론인 네트워크 의장은 “현재 대부분의 대학언론이 법적·제도적 기반 없이 운영되고 있으며, 이로 인해 학내 권력 감시와 공론장 형성이라는 본연 책무 수행이 크게 제약받고 있다”며 “38건에 달하는 언론 탄압 사례는 대학언론이 처한 현실을 단적으로 보여준다”고 전했다.
이어진 토론에서는 각 대학언론인들이 참여해 대학언론 위기 실태와 제도적 개선 방안에 대해 현장의 목소리를 전했다. 박호빈 서울권대학언론연홥회 회장 및 건대신문 편집국장은 대학언론의 위기는 복합적이지만 그 중심엔 독립성의 부재가 있다며 대학언론법 제정이 대학의 민주적 거버넌스를 강화할 것이라 말했다. 한편 실질적 운영을 보장할 수 있는 장치와 후속 제도가 마련돼야 한다는 의견도 있었다. 박 회장은 독립적 재정 운영 기구 필요성과 대학언론 구성원 지원 체계 제도화를 통한 전문성을 강화 및 인력난 해소를 강조했다. 김봄이 전 경기대신문 편집국장도 대학언론법이 실질적 변화를 만들어내기 위해서는 예산 지원 항목이 필요하며 법 위반에 따른 처벌 방안과 탄압 조사 단계를 마련해야 한다고 목소리를 높였다. 한편 봉건우 더불어민주당 전국대학생위원장은 법안 통과 시 대학언론이 학생자치와 학교 조직 어느 곳에서도 지원을 받지 못하는 상황이 생길 수 있다며 보다 섬세한 고려가 필요하다고 우려를 표했다. 그밖에도 법률안 제작에 기여한 차종관 대학언론인 네트워크 자문위원의 대학언론 위기 극복을 위한 국회 토론회 필요성 제기 등 다양한 의견이 모였다.
정 의원에 따르면 대학언론법은 현재 교육위원회 법안소위에 회부돼있고 간사실과 협의해 안건 상정 일정이 조율 중에 있다. 정 의원은 법안이 신속하고 원활하게 심사될 수 있도록 최선을 다하겠다며 대학언론법은 당위성이 충분한 법안이므로 입법화될 가능성이 높다고 생각한다고 밝혔다.

무관심과 악순환, 대학언론은 어디로 가는가

한편 대학언론 위기는 편집권 침해 등 자유와 독립 침해에만 있지 않다. 종이 신문에 대한 관심이 줄어든 것도 영향을 미치고 있다. 지난 62호에서 진행된 <지스트신문> 인지도 조사에 따르면 응답자는 126명, 그중에서도 <지스트신문>을 읽어본 적 있는 사람의 비율은 64.3%다. <지스트신문>뿐 아니라 대부분 대학언론의 사정은 비슷한 것으로 보인다. 전국 대학언론 중 근 3년내에 인지도 조사를 진행한 사례를 일부 조사했다. 그 결과 <전대신문>이 지난 2024년 6월 인식조사 분석에선 응답자 42.3%가 학내 신문을 한 번도 읽어보지 않았다고 답했다. <단대신문>은 2022년도 인지도 조사를 실시하려고 했으나 응답자가 17명에 불과해 제대로 된 설문조사 결과를 도출할 수 없었다. <건대신문>의 2024년 인지도 조사에서도 신문을 읽어본 적 없는 학생이 응답자의 43.6%였고 학생들은 ‘미흡한 인지도’를 문제로 꼽기도 했다. 한편, 인지도 조사 외에도 많은 기자들이 대학언론 오피니언란을 통해 대학언론에 대한 무관심과 대학언론 위기를 심각하게 다루고 있었다.
대학신문이 전하는 소식에 구성원이 관심을 기울이지 않으면 중요한 담론도 소리 없이 흘러가기 마련이고, 자연히 취재에도 어려움이 생긴다. 객관적이고 중요한 정보를 전하고 대학에 대한 감시 역할을 한다는 대학언론의 힘은 사실상 독자에게 달려있기 때문이다. 대학의 허가 하에 신문을 발행하는 이상 대학언론은 대학에 비판적인 기사나 민감한 주제에 대해 조심스러울 수밖에 없다. 그런 상황에 독자들의 관심이 줄어들면 대학언론의 행동력은 위축되고, 이는 신문의 질을 떨어트린다. 그리고 이것은 다시 독자의 무관심을 불러일으킨다. 디지털 시대, 종이 신문 자체에 대한 흥미가 떨어진 지금 이러한 악순환까지 반복되고 있다. 대학언론 위기 극복을 위해 대학언론인 네트워크와 같은 단체가 각 대학언론을 연결해 소식을 공유하고 대학언론법 재발의에 힘쓰는 등 활동을 이어가고 있긴 하지만 많은 대학언론인들이 위기감을 느끼는 것도 이상한 일이 아니다. 추후 대학언론법이 통과돼 자유와 독립이 법적으로 보장되더라도, 이런 위기를 헤쳐나가기 위해서는 대학언론 위기 원인을 정확히 파악하고 새로운 돌파구를 고안해야 할 것이다.

만평