개발기록
-
쿠버네티스 용어 한줄 요약 정리개발기록 2023. 4. 23. 23:28
k8s VM은 호스트OS-하이퍼바이저-게스트OS 컨테이너는 호스트OS-컨테이너런타임-컨테이너(=프로세스) 컨테이너 여러개 사용할때 문제 = 컨테이너 사이 통신 / 가용성 확보(부하분산) / 다중화 고민 / 가상머신에 장애가 생기면? 쿠버네티스 = 데이터 플레인(서비스 사이 네트워크 트래픽 관리하는 서비스 메시) 서버를 여러대 실행시켜, 가상 오케스트레이션 계층을 구축하고 거기에서 컨테이너가 동작한다. 그러면 컨테이너 그룹을 하나의 큰 머신 리소스로 추상화 가능. 컨트롤 플레인으로 어떤 머신에서 동작시킬지 / 정지시킬지 판단가능 파드 = 쿠버네티스 최소 단위. Pod 하나 안에서는 하나 이상의 컨테이너 동작 가능. 어떤 컨테이너 이미지 쓸 지 설정함 레플리카셋 = 파드를 얼마나 동작시킬지 관리. 디플로이먼..
-
쿠버네티스와 go로 에코 서버 만들기 -1개발기록/쿠버네티스 2023. 3. 12. 02:01
에코서버란? 에코 서버는 사용의 입력을 그대로 돌려주는 서버를 말한다. 이번 포스팅에서는 쿠버네티스 설정에 더 집중하고 싶어서, 입력 없이 단순히 hello world라는 문자열만 돌려주게 했다. 쿠버네티스 설정 데스크탑에 VirtualBox를 설치한 뒤, On-premise처럼 직접 노드들을 만들었다. 쿠버네티스는 1.24 버전을 설치했다. 설치하는데 정말 애를 먹었다. 계속 "did you specify the right host or port?"라는 에러에 시달렸다. 정말 며칠동안 해결을 하지 못하다가, admin.conf 설정과 systemd, containerd등을 잘 맞추고, 설치하는 쿠버네티스 버전을 1.24로 내린 뒤 해결했다. containerd 공식 홈페이지를 가보니 쿠버네티스 1.24..
-
BERT로 다중 감정 분류하기(2)개발기록 2022. 6. 11. 16:23
https://imchangrok.tistory.com/26 BERT로 다중 감정 분류하기(1) 저번에는 네이버 영화 리뷰 데이터로 이진 감정 분류를 했다면, 이번에는 다중 감정 분류를 해봤다. 아래에서 만든 모델을 기반으로 만들었다. https://imchangrok.tistory.com/25 BERT로 네이버 영화 감성 imchangrok.tistory.com 저번에 이어서, 다중감정 분류를 마저 해보겠다. 이번에는 accuracy를 높히기보다는, 코드를 좀 보기좋게 수정하는 작업을 많이 진행했다. 맨 처음에 기반이 된 nsmc분류 모델이 이것저것을 참고해서 작성되었기 때문에, 다소 주먹구구로 작성된 부분이 있었다. 이런 부분을 많이 수정했다. 중간에 막혔던 부분이 있었지만 어찌저찌 잘 해결했다. 웹..
-
BERT로 다중 감정 분류하기(1)개발기록 2022. 6. 2. 10:44
저번에는 네이버 영화 리뷰 데이터로 이진 감정 분류를 했다면, 이번에는 다중 감정 분류를 해봤다. 아래에서 만든 모델을 기반으로 만들었다. https://imchangrok.tistory.com/25 BERT로 네이버 영화 감성 분류 오랜만에 해보고 싶은 프로젝트가 생겨서 잃어버린 감을 되찾기 위해서 많이들 하는 프로젝트인 감성 분류를 해보기로 했다. 처음에는 KoBERT를 써보려고 했는데, colab에선 잘 돌아가는게 로컬에 imchangrok.tistory.com 데이터는 aihub에서 여러 데이터를 받아서 종합해 만들었다. 총 4개의 데이터를 종합해 만들었다. 부정적인 감정의 종류가 많았다. 기쁨을 행복으로 바꾼다거나 하는 방법으로 최대한 데이터셋간의 레이블을 맞췄다. 감성대화말뭉치에만 있는 불안과..
-
BERT로 네이버 영화 감성 분류개발기록 2022. 6. 1. 22:27
오랜만에 해보고 싶은 프로젝트가 생겨서 잃어버린 감을 되찾기 위해서 많이들 하는 프로젝트인 감성 분류를 해보기로 했다. 처음에는 KoBERT를 써보려고 했는데, colab에선 잘 돌아가는게 로컬에서 하려니까 의존성 이슈가 너무 많이 발생해서 그냥 BERT에서 자체 지원하는 multilingual모델로 해보니 그럭저럭 잘 돌아갔다. tokenizer = BertTokenizer.from_pretrained('bert-base-multilingual-cased', do_lower_case=False) model = BertForSequenceClassification.from_pretrained("bert-base-multilingual-cased", num_labels=2) 토크나이저랑 모델은 이 두 모델..