[AICE] Prepare for AICE Associate

KT에서 주관하는 AICE(AI Certificate for Everyone, 구 AIFB) 자격증 취득을 위해 준비하며 정리한 내용이다.

AICE

참고한 도서는 시나공 AICE Associate이다. 본 책의 Index는 다음과 같다.

ch1. AI 작업환경 구성 ch2. 데이터 획득 ch3. 데이터 구조 확인 ch4. 기초 데이터 ch5. 데이터 이해 ch6. 데이터 전처리 ch7. AI 모델링 필수 개념 이해 ch8. 지도학습으로 AI 모델링 ch9. 비지도학습으로 AI 모델링 ch10. 모델 성능 향상 ch11. 실습 - 렌탈고객 해지 여부 예측 ch11.1 데이터 처리 ch11.2 데이터 이해 ch11.3 데이터 전처리 ch11.4 모델링과 평가

이래저래 병행하는 일을 처리하다보니.. 어느새 하루 밖에 안 남았다. 남은 40시간 야무지게 사용해보자.

ch3. 데이터 구조 확인

  • columns : 열 레이블(칼럼명) 나열
  • rows : 행 인덱스 나열
  • head(n=) : 앞의 n 줄 (default=5)
  • tail(n=) : 뒤의 n 줄
  • shape : (행,열) 정보를 tuple 타입으로 반환
  • info : 데이터 유형, 수 등 확인
  • describe : 칼럼별 요약 통계량

ch4. 기초 데이터

ch5. 데이터 이해

ch6. 데이터 전처리

ch7. AI 모델링 필수 개념 이해

ch8. 지도학습으로 AI 모델링

ch9. 비지도학습으로 AI 모델링

ch10. 모델 성능 향상

ch11. 실습 - 렌탈고객 해지 여부 예측

ch11.1 데이터 처리

ch11.2 데이터 이해

ch11.3 데이터 전처리

ch11.4 모델링과 평가

[AICE] Prepare for AICE Associate

KT에서 주관하는 AICE(AI Certificate for Everyone, 구 AIFB) 자격증 취득을 위해 준비하며 정리한 내용이다.

AICE

참고한 도서는 시나공 AICE Associate이다. 본 책의 Index는 다음과 같다.

ch1. AI 작업환경 구성 ch2. 데이터 획득 ch3. 데이터 구조 확인 ch4. 기초 데이터 ch5. 데이터 이해 ch6. 데이터 전처리 ch7. AI 모델링 필수 개념 이해 ch8. 지도학습으로 AI 모델링 ch9. 비지도학습으로 AI 모델링 ch10. 모델 성능 향상 ch11. 실습 - 렌탈고객 해지 여부 예측 ch11.1 데이터 처리 ch11.2 데이터 이해 ch11.3 데이터 전처리 ch11.4 모델링과 평가

앞으로 3일에 걸쳐 예제를 쭉 따라가며 실습 및 개념 복습하겠다. 토요일(7/13)까지 3일 남은 만큼, 하루에 챕터 3개 정도 진도를 나가면 되겠다.

그럼, 시작하자.

ch1. AI 작업환경 구성

일반적으로 Jupyter나 Colab을 주로 사용한다. 그러나 AICE는 시험을 위해 독자적인 AIDU 도구를 제공한다. AICE 홈페이지 > AICE 실습 > 나의 프로젝트

ch2. 데이터 획득

라이브러리 설치를 위한 명령어는 다음과 같다.

!pip install <library>
import <library> as <alias>

주로 사용하는 라이브러리는 2가지이다. 1) numpy : n차원 배열 객체인 ndarray를 처리함

np.array()

2) pandas : 1차원 배열인 Series, 행(row)과 열(column)으로 구성된 2차원 테이블인 DataFrame을 처리함

pd.Series()
pd.DataFrame()
pd.to_csv()
pd.read_csv('', index_col=, usecols=, encoding=)
pd.crosstab(index=, columns=)

위의 내용은 샘플코드에서 확인할 수 있다.

[AICE] About AICE Associate

KT에서 주관하는 AICE(AI Certificate for Everyone, 구 AIFB) 자격증 취득을 위해 준비하며 정리한 내용이다.

AICE

AICE 자격증에 대한 설명은 AICE 가이드북을 먼저 참고하도록 하자.

출제분야상세내용문항 수배점
데이터 분석- 필요란 라이브러리 설치
- Tabular 데이터 로딩,저장
- 데이터의 구성 확인, 상관분석
- 기초 데이터 다루기
5~630점
전처리&시각화- 데이터 결측치 처리
- 라벨/원핫 인코딩
- X,Y 데이터 분리
- 데이터 정규분포화,표준화
4~530점
모델링- 머신러닝 모델 학습
- 딥러닝 모델 학습
- 모델 성능평가 및 시뮬레이션
- 모델 성능 개선 및 그래픽 출력
4~540점

Associate 샘플문항이 마련되어 있으니 시험 전 테스트해보는 것이 좋겠다.

또한, 제한적 오픈북 시험으로 구글링을 통해 코드를 검색/참고할 수 있다. 다만 AI, 메신저, 온라인 노트나 교재 파일 등을 참고하는 것은 금지된다.

유효기간은 응시일로부터 3년이다.

응시환경 점검

응시일 4일 전부터 전날까지 온라인 시험환경 점검을 지원한다. 지원자의 메일이나 문자로 안내되며, 점검 방법은 OT 영상을 참고하라.

시험 응시

  • 유의 사항 (1) 응시 준비물은 반드시 챙길 것 (2) 시험 시작 30분 입장 권장 (3) 시험 응시 중 작성하시는 답안지는 자동저장됨 (4) 시험 문항과 안내사항은 꼼꼼히 읽을 것 (5) 데이터 가져오기 불필요

  • 응시 준비물
  • 본인 신분증
  • PC와 웹캠
  • Chrome 브라우저
  • 휴대폰(본인인증)

[Cmd Inst] 쉘 프롬프트에서 긴 경로 축약하는 방법

쉘 프롬프트에서 디렉토리를 타고타고타고 들어가다보면 $ 앞이 끝없이 길어질 때가 있다.

bjho@BJH:/mnt/c/Users/bjh17/Projects$ cd code
bjho@BJH:/mnt/c/Users/bjh17/Projects/code$ cd 0-Education/
bjho@BJH:/mnt/c/Users/bjh17/Projects/code/0-Education$ cd SystemProgramming/
bjho@BJH:/mnt/c/Users/bjh17/Projects/code/0-Education/SystemProgramming$ ls
Dive-into-Systems-ch3
bjho@BJH:/mnt/c/Users/bjh17/Projects/code/0-Education/SystemProgramming$ cd
 Dive-into-Systems-ch3/
bjho@BJH:/mnt/c/Users/bjh17/Projects/code/0-Education/SystemProgramming/Dive-into-Systems-ch3$ ls
a.exe  badprog.c  segfault.c

프롬프토 형식을 담당하는 PS1 환경변수롤 조작하여 저 긴 거를 줄여보도록 하겠다.

bjho@BJH:/mnt/c/Users/bjh17/Projects/code/0-Education/SystemProgramming/Dive-into-Systems-ch3$ export PS1='\u@\h:\W$ '
bjho@BJH:/Dive-into-Systems-ch3$ export PS1='$(basename `pwd`)$ '
Dive-into-Systems-ch3$ 

여기서 \W는 현재 디렉토리의 이름만 표시하며, \u는 사용자 이름, \h는 호스트 이름을 나타낸다.

그런데, 위의 예시에서는 잘 드러나지 않았지만 기존에는 $ 앞부분이 뒷부분의 입력부와 다른 색상이어서 명확하게 구분이 되었는데 바꾼 후로는 동일하게 하얀글자로 표기된다.

이런 불편함은 참을 수 없지. 이스케이프 시퀀스를 사용하여 색상을 추가하였다.

Dive-into-Systems-ch3$ export PS1='\[\e[34m\]\W\[\e[0m\]$ '

[\e[34m]는 파란색 텍스트를 의미하고, [\e[0m]는 색상을 초기화한다.

물론, 나중에는 본래대로 되돌리고 싶어할 수 있다. 그때를 대비하여 모든 경로를 출력하도록 하는 명령어를 아래 남겨두겠다.

export PS1='\u@\h:\w\$ '

\w는 현재 작업 디렉토리 전체 경로를 의미한다.

끝!!

[GIT Inst] push할 때마다 username/password 입력 안하는 방법

본래 사용하던 환경이 아닐 경우, 귀찮은 일들을 해야한다. 라이브러리 설치 받고, 도구들 다운 받고, 업데이트하고.. git login도 다시 해줘야한다.

그중 push 할 때마다, username과 password(keychain)을 입력하지 않게하는 방법을 정리하겠다. 먼저, keychain은 github.com의 setting/developer_setting에서 token-generate로 얻는다는 것을 잊지말자.

시작!

git config --global user.name "github_id"
git config --global user.email "github_email"
git config credential.helper store --global

여기까지가 기본 세팅이다. 한번은 push하면서 username, password를 입력해야하니, push를 해주자.

git push origin main
username :
password : 
git config credential.helper store --global

입력을 완료했다면, 이제 원격으로 push해도 id와 pwd를 안쳐도 된다.

끝!!

[GIT Inst] forked 레포지토리의 커밋을 잔디에 반영하기(fork-bare, mirror-push)

종종 예전 오픈소스를 용도에 맞게 커스텀할 필요가 있다. 그런데 이러한 커밋들은 PR을 받아주지 않으면 내 잔디에 반영이 되지 않네? 그래서 이미 fork했던 레포지토리의 커밋 기록을 그대로 살리면서 내 레포지토리로 옮기는 방법을 찾아봤다.

우선, 이미 fork했던 레포지토리를 복제 용도로 clone 받는다.

git clone --bare https://github.com/user_id/forked_repository.git
cd forked_repository.git

이 레포지토리에서 새로 만들었던 내 레포지토리로 mirror-push(복제)한다. 참고로, 해당 레포지토리는 백업 용도라 추가적인 commit을 만들 수는 없다.

git push --miror https://github.com/user_id/my_new_repository

새 레포지토리에 잘 반영이 되었다. 새로 만들어진 레포지토리에서 추가적인 작업을 하려면, 일반적인 상황처럼 clone 받고 수행하면 된다.

git clone https://github.com/user_id/my_new_repository

[WebSec] AdGraph

논문

Introduction

광고와 트레킹은 여러가지 불안을 유발합니다. 프라이버시, 보안, 웹페이지 성능, 불편한 사용경험 등입니다. 이에 따라, 브라우저 공급자와 사용자 모두 특정 유형의 콘텐츠를 차단하는 content blocking에 대한 요구가 증대되고 있습니다. 저 같은 경우 adblock과 brave를 사용해보았습니다

그렇다면 이러한 광고와 트레킹을 어떻게 막고 있었을까? 자바스크립트 코드나 URL의 패턴을 기반으로 rule을 만들어 filter list로 거른다. 그러나 새로운 침해에 대응하기에는 오래 걸리는 반면, 오래된 침해방식은 곧 유효하지 않습니다. 실제로 제가 복무했던 해군사이버작전센터는 유해 ip와 해킹메일을 black list 룰로 차단했는데, 주기적으로 과거 차단 목록을 검토하고 없애주어야 했습니다.

그러나 더 큰 문제는 도메인을 바꾸거나 first-party에서의 침해, javascript를 적절히 난독화하는 전형적인 회피 수단에도 쉽게 뚫린다는 것입니다. 이에 따라 machine learning을 활용한 blocking도 연구되었으나 여전히 scalability와 accuracy 문제들이 있습니다.

[PS] 그로들 자소서 완성

자 기 소 개 서 한동대학교 AI.컴퓨터공학 전공 4학년(졸업 예정) 배재호

  1. 지원동기 및 소개 저는 백과사전을 좋아하는 어린이였습니다. 호기심이 많아 새로운 정보를 습득하는 것에 즐거움을 느끼며, 납득이 안 되는 용어나 논리가 있다면 해소가 될 때까지 파고들고는 합니다. 그런 저에게 코딩 과제는 하나하나가 재미있는 도전이었습니다. 주어진 문제를 해결하도록 설계하고, 그대로 구현하는 과정이 너무나 즐거워서 팀플 과제에서도 최대한 구현을 독점하려 했었습니다. 그렇게 책 속의 작은 과제들에 매달려 있던 저를 변화시킨 것은 Intelligent Software Engineering Lab(ISEL)에서의 학부생 연구원 경험이었습니다. ISEL은 인공지능에 소프트웨어 공학 기법을 적용하고, 소프트웨어 공학의 도구로 AI를 활용하는 방법을 연구하는 연구실입니다. 저는 랩실에서 처음으로 혼자 힘으로는 주어진 시간 내에 달성할 수 없는 과제를 마주했습니다. 자바 오픈소스 프로젝트에 존재하는 취약점을 ChatGPT가 검출할 수 있는지 확인하는 VIChecker라는 프로젝트였습니다. 이 팀 프로젝트에서 저는 ChatGPT 출시 이후에 오픈소스 프로젝트에서 유의미하게 수정된 자바 파일을 git을 이용해 추출하고, 이들을 정해진 프롬프트에 따라 ChatGPT API를 사용해 질의하는 역할을 맡았습니다. 그러나 정말 어려웠던 작업은, 오픈소스 코드를 ChatGPT가 올바르게 분석했는지 검증하는 일이었습니다. 팀원들은 각자 일정량의 코드를 담당해서 분석하며, 교차 검증을 위해 다른 팀원들을 빠르게 이해시키고 피드백을 받아야 했습니다. 또한, 이러한 오픈소스 코드 리뷰 과정을 통해 제가 얼마나 혼자만 이해할 수 있는 코드를 짜왔는지 알 수 있었습니다. 이러한 과정을 통해 협업이 단순한 업무 분담이 아니라, 서로가 어떤 작업을 하고 있고, 왜 해야 하며, 어떻게 나아갈 것인지 이해하는 것임을 알게 되었습니다. 이후, 코드 리뷰 경험을 더 많은 학생이 일찍부터 했으면 좋겠다고 생각해 실습 조교와 멘토링을 하며 도움을 주고자 했습니다. 랩실에서 AI를 활용한 더 많은 팀 프로젝트를 진행하며, 의사결정을 돕는 딥러닝 모델이 앞으로 필수적인 도구가 될 것으로 생각하게 되었습니다. 특히, 수많은 정보를 유용하게 소비하기 위해서는 텍스트뿐만 아니라 이미지나 비디오 같은 다양한 데이터 소스를 활용해야 합니다. 그로들에서 AI를 활용한 이미지 번역, 자동 영상 제작, 자동 회의록 작성, 추천시스템 등 다양한 서비스를 개발한 선배 전문가들과 소통하며 의사결정에 도움이 되는 멀티 모달 서비스를 개발하고 싶습니다.
  2. 인턴 직무 관련 경험 [Python, Java 관련 TA 경험] 저는 학부 시절 파이썬과 자바 과목을 수강하며 각 언어의 기본적인 문법과 자료구조, 파일 처리 방법을 배웠습니다. 또한 객체지향 적으로 설계하는 방법과 오픈소스 라이브러리를 사용하는 방법을 배웠고, 특히 자바에서는 gradle과 같은 빌드 도구를 활용하는 연습을 많이 할 수 있었습니다. 그 과정에서 소스코드의 문법으로만 발생하는 줄 알았던 에러들이, 라이브러리 버전이나 프레임워크 세팅과 같은 코드 외적인 부분에서 더 많이 나타난다는 것을 알게 되었습니다. 제각기 다른 이슈들이 다른 학생들에게도 발견되는 것을 보며, 저는 이것을 앞으로 개발자로서 경험하게 될 수많은 이슈를 미리 경험할 기회로 여겼습니다. 이후, 자바 과목에서 수강생들의 실습에서 발생하는 이슈를 대처하는 TA(Teaching Assistant)를 1년간 맡았습니다. 학생들이 주로 어려움을 느끼는 gradle과 spring의 첫 설치에서 발생한 에러들을 파악하고 해결책을 찾았습니다. 그뿐만 아니라 인터페이스와 예외 처리 클래스와 같은 객체지향 개념을 설명하면서 강의를 수강할 때보다도 프로젝트 설계에 대한 이해를 높일 수 있었습니다. 동시에 기본 프로그래밍 언어(C/C++, Java, Python)을 멘토링 하는 코딩 아워 TA를 1년 반에 걸쳐 맡으며 랩실에서 배웠던 코드 리뷰 방법을 학생들과 공유하고자 했습니다. 이러한 노력을 인정받아, 2023년도 코딩 아워 우수 TA로 선정되었습니다. [웹 크롤링 경험] 저는 대규모 언어모델(LLM)을 학습시키기 위한 데이터셋을 수집하는 동적 웹크롤러, mvnCrawler를 selenium과 python으로 구현하였습니다. 바이트코드를 언어모델에 학습시키는 선형 연구가 부재하여, 독자적인 데이터셋을 생성하기 위해 제작하였습니다. 크롤링 대상은 자바 오픈소스 라이브러리가 담긴 maven 저장소입니다. 1000개 이상의 프로젝트와 각 프로젝트의 버전들의 정보를 수집하기 위해 ‘프로젝트/버전’ 경로를 트리로 저장하여 순회하였는데, maven 자체 오류로 dangling tree가 만들어져 몇몇 프로젝트 내에서 무한 루프가 돌아가는 이슈가 있었습니다. 이를 해결하기 위해 무한 루프를 탐지하면, 잠시 크롤러를 멈추고 순회할 경로를 담은 큐에서 문제가 되는 경로를 삭제하는 스크립트를 작성하였습니다. 또한, 일부 오픈소스의 버전에 당연히 있을 것이라 가정했던 소스코드와 같은 파일이 부재하여 에러가 발생하기도 했습니다. 실무에서는 예측하지 못한 예외들이 있을 수 있단 것을 실감하고, 섣불리 예외 처리를 마쳤다고 안심해서는 안 된다는 교훈을 얻었습니다. [LLM 모델 개선 및 분산학습 경험] mvnCrawler로 생성한 데이터셋을 학습하도록 BERT를 개선한 ByCoBERT 모델을 제작하였습니다. 그러나 BERT에 비해 상당히 작은 데이터셋을 사용하였기에 과적합을 막으려면 계층과 파라미터 개수를 줄여 모델의 수용력을 낮춰야 했습니다. 이렇게 작은 데이터셋과 모델로 과연 충분한 효과를 볼 수 있을까? 라는 의문이 들었습니다. 이를 해소하기 위해 CodeBERT, JavaBERT, DexBERT 등 프로그래밍 언어를 학습시킨 선행 연구를 조사하였고, 자연어에 비해 정칙성이 있는 코드는 상대적으로 작은 크기의 데이터셋과 모델로도 효과가 있다는 실증 결과를 얻을 수 있었습니다. 한편, pre-training 과정에서 GPU 자원 부족으로 인해 모델이 학습 도중 중단되는 문제가 발생했습니다. 저는 최적화 알고리즘을 Adam에서 SGD로 다소 낮추고, PyTorch가 제공하는 DDP(Distributed Data Parallel)를 적용하여 4개의 GPU를 모두 사용하도록 코드를 수정하였습니다. 그러나 사전 학습 결과는 기대와 달리, MLM(Masked Language Modeling)과 NSP(Next Sentence Prediction) 모두 무의미한 토큰을 예측하였습니다. 원인은 mvnCrawler로 생성한 데이터셋을 충분히 전처리하지 않고 학습시켰기 때문이었습니다. 불필요한 토큰들을 제거하는 튜닝 과정까지 모두 거친 ByCoBERT 모델은 예측 성능이 상용모델인 spotbug보다 우수한 f1-score 성능을 보여 공동 저자로 정보과학회논문지에 논문 을 제출하고 심사를 기다리고 있습니다. [AI 개발 도구 사용 경험] AI 프로젝트 입문 과목에서 머신러닝과 딥러닝의 기본 개념을 학습하고, tensroflow로 Jupyter 환경에서 regression부터 CNN, RNN, AE 등을 직접 구현했습니다. 또한, 3인 팀으로 협업 필터링을 사용해 옷 추천 서비스를 제작하였습니다. 다만 사용할 수 있던 데이터가 팀원 3인뿐이었기에 큰 효과를 보진 못했습니다. 그러나 유사도 측정 알고리즘이 잘 동작한다는 점, 크롤링을 통해 옷의 가격 비교를 할 수 있다는 점 등에서 높은 점수를 받았습니다. 이를 바탕으로 24년 3월부터 6월까지 AI 입문 과목의 TA를 맡아 학생들의 실습을 돕고 있습니다. 컴퓨터 비전 과목에서 opencv 라이브러리를 사용해 이미지 처리와 분석 기술의 개념을 학습하고 실습하였습니다. 특히 CNN을 활용한 분류 작업과 나아가 객체 인식 기법에 흥미를 느꼈습니다. 마음이 맞는 팀원들과 함께 YOLO를 사용해 수화 영상을 학습시켜 실시간 수화 통역 서비스를 구현했습니다. AI-Hub에서 공개한 수어 데이터셋을 활용하였습니다. GPU를 사용하기 위한 CUDA와 드라이버 호환성이 맞지 않아 시작이 어려웠습니다. NVIDIA와 TensorFlow의 공식 문서를 여러 번 교차 확인하며 올바른 버전과 경로를 찾으며 해결할 수 있었습니다. [머신러닝, 딥러닝에 대한 심층 지식 습득] 제가 소속된 랩실은 인공지능과 소프트웨어공학을 접목하는 연구를 진행하고 있기 때문에, 소속원 모두가 지도교수님과 AI 스터디를 진행합니다. ‘모두를 위한 딥러닝’ 강의를 함께 시청하며 돌아가며 세미나를 진행하였습니다. 저는 특히 역전파 과정에 관심을 가졌고, 자바로 3층 신경망의 순전파와 역전파를 구현해 보았습니다. 이전까지는 행렬 계산에 익숙하지 않았으나, 이 과정에서 행렬이 얼마나 편리한 도구인지 느끼고 선형대수학을 수강했습니다. 머신러닝 과목에서는 회귀, 분류, 밀도 추정, PCA 등의 머신러닝 개념을 수학적으로 이해하고, colab 환경에서 tensorflow와 scikit-learn 라이브러리들이 제공하는 kNN, RBFN, dse, pca 등의 함수들을 실제로 구현해 보면서 정말로 알고 있음을 확인했습니다. 또한, 딥러닝 개론 과목을 수강하며 CNN과 RNN, Representation 학습 등을 수학적으로 이해하고, 앞의 모델들이 실무에서 사용되기 위해 어떤 정규화 전략들이 존재하는지 학습하였습니다. 나아가 Attention, BERT, Explainable AI, Auto-Encoding 등의 주요 논문들에 대한 세미나를 진행했습니다. 특히, Understanding Deep Learning Requires Rethinking Generalization 논문은 앞에서 배워왔던 정규화 전략들도 분명 중요하지만, 모델 자체의 성능이 일반화 성능에 영향이 크다는 사실을 밝혀 큰 인상을 남겼습니다. 본 논문에서 밝힌 너무 커다란 모델은 학습이 아닌 암기를 한다는 지적은 어떻게 해결할 수 있을지 고민이 되었습니다.
  3. 입사 후 계획 지원하는 직무인 멀티모달 분석 기반 딥러닝 모델 개발을 위해 다음의 역량을 키웠습니다. 파이썬과 자바에서의 TA 경험을 통해 기본 문법부터 객체지향 설계와 빌드 도구 사용까지 능숙하게 다루며, 다양한 이슈를 해결할 수 있습니다. 동적 웹 크롤러를 직접 구현하고, 이를 통해 수집한 데이터셋을 전처리할 수 있습니다. 텍스트 데이터만이 아니라 영상 데이터에 대한 정규화 역시 가능합니다. 또한, 목적에 맞게 LLM 모델을 개선하고 분산 학습을 적용하여 AI 모델의 학습 성능을 향상할 수 있습니다. 이외에도 다양한 AI 프로젝트 경험을 통해 머신러닝과 딥러닝의 이론과 문제해결 능력을 습득하였습니다. 이러한 역량을 바탕으로, 그로들에서 경제/산업 뉴스 기반 지식 모델을 구축하겠습니다. 나아가, AI를 활용해 사회에 편리함을 가져오는 다양한 솔루션들을 만들고 싶습니다. 다양한 AI 서비스를 제작한 선배들이 있는 그로들은 제 꿈을 향해 나아갈 최적의 자리라고 생각합니다.

[PS] 그로들 자소서 개정 - 경험 및 역량

한화계열 스타트업, 그로들에 제출하기 위한 자소서를 작성 중이다. 이커머스 시장에서 생산성을 높일 수 있는 AI 솔루션을 개발하는 기업이다.

그로들의 요구사항을 정리하면 다음과 같다. “경제/산업 뉴스를 크롤링하여 요약할 수 있는 자연어처리/멀티모달 딥러닝 모델 개발” 만약 정규직으로 전환된다면, LLM과 Vision 쪽의 업무가 배정될 것이다. LLM은 summary, translation, document intelligence 등, vision은 문자인식, 객체인식, text/image-to-video 등이겠지. 모델 최적화나 분산학습 경험과 fine-tuning 경험자, 모델 개선 경험자도 찾고 있다. NLP에 필요한 데이터 수집 및 모델링도 경험한다면 우대사항이다. 상용 AI API와 tensorflow/pytorch와 같은 프레임워크에 대한 경험이 있다면 좋겠지. 또한, Linux/Unix와 Docker 환경을 주로 사용할 것이고, 협업(git, 코드리뷰)을 중요시하는 것으로 보인다.

MindManager를 활용해서 정리해봤다. mindmap

[PS] 그로들 자소서 개정 - 지원동기 및 소개

한화계열 스타트업, 그로들에 제출하기 위한 자소서를 작성 중이다. 이커머스 시장에서 생산성을 높일 수 있는 AI 솔루션을 개발하는 기업이다.

그로들의 요구사항을 정리하면 다음과 같다. “경제/산업 뉴스를 크롤링하여 요약할 수 있는 자연어처리/멀티모달 딥러닝 모델 개발” 만약 정규직으로 전환된다면, LLM과 Vision 쪽의 업무가 배정될 것이다. LLM은 summary, translation, document intelligence 등, vision은 문자인식, 객체인식, text/image-to-video 등이겠지. 모델 최적화나 분산학습 경험과 fine-tuning 경험자, 모델 개선 경험자도 찾고 있다. NLP에 필요한 데이터 수집 및 모델링도 경험한다면 우대사항이다. 상용 AI API와 tensorflow/pytorch와 같은 프레임워크에 대한 경험이 있다면 좋겠지. 또한, Linux/Unix와 Docker 환경을 주로 사용할 것이고, 협업(git, 코드리뷰)을 중요시하는 것으로 보인다.

자, 위의 내용 중 초안에 들어가지 않은 것은? 1) fine-tuning 경험 2) 분산학습 경험 3) tensorflow/pytorch 자세히 쓸 것 4) 모델 개선 과정에서 겪은 어려움을 쓸 것 5) AI API 쓰면서 어려움은 없었나? 6) linux 서버에서 내가 무슨 일을 했지? 7) git 쓰면서 무얼 배웠지?

또한, 뭐가 부족하지? 8) 전반적으로 사실의 나열이지, 어떻게 왜 했는지 내용이 비어있다. 9) 동기가 부족하다 10) 입사 후 계획이 곧 떠날 사람처럼 느껴진다. 11) 경제학 입문 - 문장이 그냥 맘에 안든다. 필히 고칠 것.

이제, 2차 개정 시작! 직무 관련 경험 사항을 어떻게 바꿔야할까? 인턴 직무로 넣어야할 목록을 정리해보자. 1) 웹 크롤링 - 데이터셋 2) 자연어처리모델 - 분산학습, 모델 개선 3) python, java 4) 머신러닝/딥러닝 - 지식과 프레임워크 사용 경험 다음으로는 정규직에 도움될 요소를 넣어보자 5) git, linux 6) 코드리뷰 7) AI API

위의 목록에 대응하는 내가 한 것들을 나열해보자. 1) VIChcker : git, linux, AI API 2) mvnCrawler : 크롤러 3) ByCoBERT : 자연어처리모델 개선, 분산학습 4) TA : python, java, ai입문, 코드리뷰 5) 컴퓨터비전 : tensorflow, CNN, YOLO 6) ai 입문 : tensorflow, 주식예측(CNN, RNN, LSTM) 7) 머신러닝 : tnesorflow, 8) 딥러닝 개론 : pytorch, ByCoBERT_v2 9) 캡스톤 : 문서작업?

Pagination