이 문서는 인쇄에 최적화되어 있습니다. 아래 버튼을 눌러 PDF로 저장하세요.

해양과학 연구자를 위한 Agentic AI 활용 과정

AI 협업 능력 향상을 통해 연구의 새로운 지평을 열다

과정 소개

본 4주 과정은 AI 기술을 연구에 접목하고자 하는 해양과학 분야의 대학원생, 박사후연구원, 그리고 현직 연구원들을 위해 특별히 설계되었습니다. Agentic AI의 기초 개념부터 시작하여, 실제 연구 시나리오에 기반한 자율 에이전트 개발까지, 단계별 심화 학습을 통해 참가자들이 AI를 단순한 도구가 아닌, 연구를 가속화하는 지능형 협업 파트너로 활용할 수 있도록 돕는 것을 목표로 합니다.

각 세션은 이론 강의와 집중 실습을 1:1 비율로 구성하여, 참가자들이 배운 내용을 자신의 연구에 즉시 적용할 수 있는 실질적인 역량 강화를 지원합니다.

교육 대상

  • AI를 활용하여 연구 효율을 높이고 싶은 해양과학 분야 대학원생
  • 데이터 분석 및 시각화 과정을 자동화하고 싶은 박사후연구원
  • 최신 AI 기술 동향을 연구에 접목하고 싶은 교수 및 현직 연구원
  • 프로그래밍 경험이 적어 AI 도입에 어려움을 겪는 연구자

선수 지식

  • 해양과학 분야의 기본적인 전공 지식
  • 프로그래밍에 대한 막연한 두려움이 없으신 분 (Python 기초 문법을 몰라도 무방)
  • 개인 연구 노트북 소지자 (OS 무관)

과정 목표 (Learning Objectives)

과정 수료 후, 참가자들은 다음을 할 수 있게 됩니다:

1주차: 기초 다지기

AI 연구를 위한 기본기를 다집니다. 개발 환경을 설정하고, Python 기초를 복습하며, 간단한 AI 모델의 개념을 이해합니다.

1일차: AI 연구를 위한 첫걸음

주요 내용: AI와 해양과학 융합의 필요성, Agentic AI 소개, 연구 환경의 중요성.

실습: Anaconda/Miniconda 설치, Conda 가상환경 생성 및 패키지 관리.

2일차: Python, 다시 시작하기

주요 내용: 연구자를 위한 Python 핵심 문법, Numpy/Pandas 라이브러리 기초.

실습: 해양 데이터(CSV, Excel) 불러오기, 기초 통계량 계산 및 데이터 정제.

3일차: OS 체계와 코드 실행 환경

주요 내용: 운영체제(Windows, MacOS, Linux)별 환경 차이 이해, 터미널/커맨드라인 기본 사용법.

실습: Jupyter Notebook/Lab 설치 및 기본 사용법, 마크다운으로 연구 노트 작성하기.

4일차: 간단한 작업 자동화

주요 내용: Python 스크립트로 반복 작업 자동화하기(파일 정리, 이름 변경 등).

실습: 특정 패턴을 가진 파일들을 찾아 폴더별로 자동 분류하는 스크립트 작성.

5일차: API 기초와 데이터 요청

주요 내용: API의 개념 이해, requests 라이브러리를 이용한 웹 데이터 요청.

실습: 공공 데이터 포털 API를 활용하여 간단한 해양 기상 정보 받아오기.

2주차: 중급 과정

기존 연구 코드를 Python으로 전환하고, LLM을 활용하여 코드 생성 및 문서화 작업을 자동화하는 방법을 학습합니다.

1일차: 기존 연구 코드 Python으로 옮기기

주요 내용: Matlab/R 등 다른 언어 코드의 Python 변환 전략, 핵심 라이브러리 매핑.

실습: 간단한 Matlab 데이터 분석 코드를 Numpy/Pandas 코드로 포팅하기.

2일차: LLM을 활용한 코드 작성 및 개선

주요 내용: ChatGPT, Copilot 등 LLM을 활용한 코드 생성, 리팩토링, 디버깅 방법.

실습: "수온-염분도" 그래프를 그리는 코드를 LLM에게 요청하고, 결과 코드 수정 및 실행.

3일차: 분석 보고서(Notebook) 자동 생성

주요 내용: 코드 생성 AI를 활용하여 데이터 분석 과정이 담긴 Jupyter Notebook 초안 자동 생성.

실습: 데이터 파일을 주고, 해당 데이터의 기본 탐색 및 시각화를 수행하는 Notebook 자동 생성 요청.

4일차: Matplotlib & Seaborn 시각화

주요 내용: Python 대표 시각화 라이브러리 활용, Publication-quality 그래프 만들기.

실습: ARGO 데이터를 활용하여 다양한 종류의 해양 데이터 시각화 실습.

5일차: Git & GitHub를 통한 협업 기초

주요 내용: 버전 관리 시스템 Git의 필요성, GitHub를 이용한 코드 공유 및 협업.

실습: GitHub 저장소 생성, 코드 업로드(push), 변경사항 추적(commit).

3주차: 고급 활용

Agentic AI 프레임워크를 사용하여 연구 정보 수집 및 요약 과정을 자동화합니다. 신뢰성 있는 정보 검색 에이전트를 구축합니다.

1일차: Agentic AI 프레임워크: LangChain

주요 내용: LangChain의 핵심 컴포넌트(LLMs, Prompts, Chains, Agents, Tools) 이해.

실습: 간단한 LLM Chain을 만들어 질문-답변 기능 구현하기.

2일차: 웹 검색 Tool을 이용한 정보 검색 에이전트

주요 내용: LangChain 에이전트에 웹 검색 능력 부여하기, 정확한 정보 소스 참조의 중요성.

실습: "최근 엘니뇨 현황"에 대해 검색하고 출처와 함께 보고하는 에이전트 만들기.

3일차: 학술 정보(논문) 자동 검색 및 목록화

주요 내용: ArXiv, PubMed 등 학술 DB API를 LangChain Tool로 연동하기.

실습: 특정 키워드("marine heatwave") 관련 최신 논문 5개를 찾아 저자, 연도, 초록을 정리하는 에이전트 구축.

4일차: RAG(검색 증강 생성)를 이용한 논문 요약

주요 내용: LLM의 환각 현상을 줄이고, 주어진 자료 기반으로 답변하게 하는 RAG 기술 이해.

실습: 다운로드한 논문 PDF 파일을 기반으로, 특정 질문에 대해 내용을 요약하고 답변하는 시스템 구축.

5일차: 연구 아이디어 브레인스토밍 봇

주요 내용: 검색된 여러 논문의 내용을 종합하여 새로운 연구 가설이나 아이디어를 제안하도록 프롬프팅.

실습: 3일차에 수집한 논문 목록을 바탕으로, 융합 연구 주제를 제안하는 에이전트 만들기.

4주차: 심화 프로젝트

해양과학 연구 시나리오에 맞춰 자율적으로 데이터를 수집하고 분석하는 맞춤형 AI 에이전트를 설계하고 구현합니다.

1일차: 제어 가능한 AI, LangGraph의 이해

주요 내용: 연구와 같이 신뢰성이 중요한 분야에 적합한 상태 기반(Stateful) 에이전트, LangGraph의 구조(노드, 엣지) 학습.

실습: '검색' -> '요약' -> '검토'의 명확한 단계를 가지는 연구 워크플로우를 LangGraph로 구현.

2일차: 자율 해양 데이터 수집 에이전트 구축

주요 내용: 연구 주제에 따라 필요한 데이터 소스(위성, 부이 등)를 스스로 결정하고 데이터를 수집하는 에이전트 설계.

실습: "동해의 특정 좌표의 최근 표층 수온 변화" 데이터 수집 자동화 에이전트 개발 (Copernicus Marine Service API 활용).

참고 자료

본격적인 실습에 앞서, 아래 가이드를 통해 주요 데이터 서비스의 특징과 Python을 활용한 자동화 예제를 미리 학습하세요.

» 지구과학 데이터 수집 가이드 바로가기
3일차: 다중 에이전트 협업 시스템

주요 내용: '연구 기획 에이전트', '데이터 수집 에이전트', '분석 보고 에이전트' 등 역할 분담 및 협업 시스템 설계.

실습: LangGraph를 사용하여 각기 다른 역할을 가진 에이전트들이 순차적/조건부로 작동하는 시스템 구축.

4일차: 최종 프로젝트 기획 및 개발

주요 내용: 개인별/팀별 연구 주제 선정, 해당 연구를 자동화할 AI 에이전트 시스템 기획.

실습: 프로젝트 설계 및 프로토타입 개발 (강사 멘토링).

5일차: 최종 프로젝트 발표 및 과정 리뷰

주요 내용: 개발한 AI 에이전트 시스템의 작동 방식, 한계점, 향후 발전 방향 발표 및 공유.

실습: 동료 평가 및 과정 전반에 대한 Q&A, 네트워킹.