본문 바로가기

전체 글

(51)
[n512]Problem Solving ■ Key words ㆍ문제해결 ㆍ의사코드 ㆍComprehension ■ 주요내용 ㆍ ■ Session note ㆍ ■ 주요함수 ㆍ ■ Reference ㆍ ㆍ ㆍ ㆍ ㆍ
[n511]Python Programming ■ Key words ㆍ반복문과 조건문 ㆍ내장 메소드 ㆍ프로그래밍 ■ 주요내용 ㆍ ■ Session note ㆍ ■ 주요함수 ㆍ ■ Reference ㆍ백준 코드 연습 : https://www.acmicpc.net/ Baekjoon Online Judge Baekjoon Online Judge 프로그래밍 문제를 풀고 온라인으로 채점받을 수 있는 곳입니다. www.acmicpc.net ㆍ아스키 코드 : https://lsjsj92.tistory.com/201 파이썬 문자를 아스키로, 아스키 코드를 문자로 파이썬에서 문자를 아스키 코드로, 아스키 코드를 문자로 변경하는 것은 매우 간단합니다 ord(문자) : 아스키 코드를 반환해준다 chr(숫자) : 숫자에 맞는 아스키 코드를 반환한다 위처럼 진행하면 lsj..
[n434]GAN(Generative Adversarial Network) ■ Key words ㆍGAN(Generative Adversarial Network) ㆍDCGAN(Deep Convolutional Generative Adversarial Network) - Latent ㆍCycleGAN ■ 주요내용 ㆍGAN(Generative Adversarial Network) - 구성 : 생성모델(Generator)과 판별모델(Discriminator)이 대립적인 과정을 통해 동시 훈련. 판별모델은 실제 이미지를 바탕으로 분별하므로, 생성모델 보다 초기에 더 좋은 성능을 보임. - 생성모델(Creator/Generator) : Random seed(noise)로부터 실제로 있을법한 image 생성 - 판별모델(Discriminator) : 만들어진 image와 input에 넣은..
[n433]Auto Encoder(AE) ■ Key words ㆍAE(Auto Encoder) - Input(Encoder; Input X) - Latent Feature(잠재된 특징) - Output(Decoder; same Input X) ■ 주요내용 ㆍAE(Auto Encoder) : "출력 = 입력"을 학습시키는 신경망. 차원 축소 등을 위해 표현학습(representation learning) 또는 특징학습(feature learning)을 비지도 학습의 형태로 학습하는 신경망 ⇒ input x를 넣어 이르 특징을 잡아주는 벡터 z를 생성하고, 이를 바탕으로 x를 복원(reconstruction)하여 나온 x'과 x의 차이를 손실함수(reconstruction error)로 정의한 후 z를 학습하여 input data의 특징을 labe..
[n432]Segmentation & Object Recognition ■ Key words ㆍSegmentation - Image Classification - Object Localization - Object Recognition - Semantic Segmentation - Instance Segmentation - Keypoint Detection ㆍImage Segmentation ㆍImage Augmentation ㆍObject Recognition ■ 주요내용 ※ Computer Vision 발전 과정 : 분류 → 개체(object) 위치 파악 → 의미적(semantic) 개체 분류 → 한 이미지 내 여러 개체 클래스 파악 ㆍFCN(Fully Convolutional Networks) : 가장 전통적인 이미지 분할. semantic segmentation 등 ..
[n431]Convolutional Neural Network(CNN) ■ Key words ㆍConvolution & Pooling - Computer vision(CV) · 사물인식 : Object Detection(YOLO) + RCNN(Fast, Faster, MASK RCNN) · 포즈 예측 : Pose Estimation(PoseNet) · 윤곽분류 : Instance Segmentation(Detectron) ㆍCNN(Convolutional Neural Network) - Convolution · Filter(Kernel) · Stride · Padding - Pooling Layer ㆍ전이학습(Transfer Learning) - Image classification ■ 주요내용 ㆍConvolution & Pooling - Computer Vision(CV)..
[n424]Transformer and BERT, GPT ■ Key words ㆍAttention이 결합된 Seq2Seq - Teacher Forcing ㆍTransformer - self-attention - Positional Encoding ※ 사전 학습 언어 모델(Pre-trained Language Model) - Pre-training - Fine-tuning ㆍGPT(Generative Pre-Training) - GPT의 구조 - 사전 학습 언어 모델(Pre-trained Language Model) · Pre-training · Fine-tuning ㆍBERT(Bidirectional Encoder Representation by Transformer) - BERT의 구조 - 사전 학습 언어 모델(Pre-trained Language Model..
[n423]Language Modeling with RNN ■ Key words ㆍ언어모델(Language Model) - 통계 기반 언어모델(Stastical Language Model, SLM) ㆍ순환신경망(Recurrent Neural Network, RNN) - Sequence - LTDP(Long Term Dependency Problem) - back propagation through time(bptt) ㆍLSTM(Long Short-Term Memory) & GRU(Gated Recurrent Unit) ㆍAttention ■ 주요내용 ㆍ언어모델(Language Model) : 문장과 같은 sequence에서 각 단어의 확률을 계산하는 모델(Word2Vec 등) * Word2Vec이 나오기 전 target 단어 왼쪽만 고려하여 조건부 확률을 계산함..