일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
- 분류
- ChatGPT
- LG Aimers 4th
- LLM
- 해커톤
- supervised learning
- GPT-4
- 오블완
- Classification
- 딥러닝
- 지도학습
- OpenAI
- Machine Learning
- LG Aimers
- PCA
- regression
- gpt
- 티스토리챌린지
- 회귀
- deep learning
- 머신러닝
- LG
- AI
- Today
- Total
목록전체 글 (318)
SYDev
2주차 세션은 추석 이슈로 비대면으로 진행 Perceptron 구현 과제 perceptron 학습 코드에서 neural network 내부의 forward, backward함수와 softmax, one_hot_encoding 함수를 구현! class NeuralNetwork(object): def forward(self, x): x = x.reshape(-1, 1) #image 1열로 나열 output = self.w * x #w의 형태?? output = np.sum(output, axis=0) output = output + self.b.T #bias의 전치 return output def backward(self, output, label, learning_rate): output = softmax..
본 게시물은 네이버 부스트 캠프 cv 강의(https://www.boostcourse.org/ai340/joinLectures/369545)를 기반으로 작성된 게시물입니다. Object Detection Object Detection: 특정 물체의 위치를 Bounding Box로 예측하고, 해당 물체의 클래스까지 분류해내는 task이다. 최근의 Object Detection은 Two Stage Detector와 One Stage Detector로 나뉘어 빠르게 발전하고 있다. One-stage Detector는 Classification과 Localization 문제를 한 번에 해결하는 방법이고, Two-stage Detector는 이를 순차적으로 해결한다. Two-stage Detector R-CNN ..
Sementic Segmentation과 Object Detection의 개념을 정확히 이해하고, 대표적으로 사용되는 모델에 대해서 알아보자. 본 게시물은 네이버 부스트 캠프 cv 강의(https://www.boostcourse.org/ai340/joinLectures/369545)를 기반으로 작성된 게시물입니다. Sementic Segmentation Sementic Segmentation(의미적 분할): Input으로 주어진 image를 class에 따라 pixel 단위로 구분하는 task이다. 같은 class에 속하는 instance를 구별(instance segmentation)하지 않는다. Fully Convolutional Networks(FCN) Sementic Segmentation을 위해..
CNN을 공부하다보니 convolution 연산이 나오는데, 내가 아는 convolution 연산 (함수가 두 개 있으면 하나를 뒤집어서 겹치는 넓이를 나타내는 연산)이랑 조금 다르다..? 행렬에서의 convolution 개념을 따로 정리할 필요성을 느낌 행렬에서의 Convolution 연산 이미지의 특징을 추출하는 연산! filter는 matrix에 따라 역할이 달라진다. 입력 이미지와 필터 사이에 convolution 연산으로 나온 결과를 feature map이라 한다. >> convolution 연산을 통해서 Image의 size를 줄일 수 있다. stride filter의 이동 범위를 사용자가 직접 정할 수 있는데, 이런 이동범위를 스트라이드(stride)라 한다. 아래는 stride가 2인 경우..
본 게시물은 네이버 부스트 캠프 cv 강의(https://www.boostcourse.org/ai340/joinLectures/369545)를 기반으로 작성된 게시물입니다. Data Augmentation 대부분의 training dataset은 real data의 distribution과 형태가 매우 다르고, bias가 크다. 이런 문제를 해결하기 위해서 training dataset을 기반으로 회전, 밝기 조절 등의 과정을 거쳐 데이터 사이즈를 증가시키는 과정을 Data Augmentaion이라 한다. 다양한 Data Augmentation 기법들 Brightness adjustment Rotate, flip Crop Affine transform Cutmix >> RandAugment: 다양한 Au..
본 게시물은 네이버 부스트 캠프 cv 강의(https://www.boostcourse.org/ai340/joinLectures/369545)를 기반으로 작성된 게시물입니다. 컴퓨터 비전의 개념과 역사에 대해 배우고, cv task의 backbone network로 활용되는 CNN에 대해 이해해보자. Neural Network Neural Network(인공신경망): 실제 인간의 뇌 신경망을 모방한 것으로 Deep Learning은 이를 이용한 "알고리즘"으로 머신러닝을 최종적으로 실현하는 것이다. 뇌에서 각 뉴런은 수상돌기(입력)을 통해 다른 뉴런에서 신호를 받아 축삭돌기(출력)에서 신호를 보낸다. neural network에서 동일선상에 있는 하나의 세로 줄을 Layer라 한다. Input layer부..
정점(vertex)과 간선(edge)로 표현되는 그래프 자료구조에 대해 이해하고, 구현해보자. 그래프의 이해 정점(vertex): 연결의 대상이 되는 개체 또는 위치를 의미한다. 간선(edge): 이들 사이를 연결하는 선을 의미한다. 다음과 같이 정점과 간선으로 구성된 자료구조를 그래프라고 한다. 그래프의 종류 무방향 그래프와 방향 그래프 무방향 그래프(undirected graph): 연결 관계에 있어서 방향성이 없는 그래프를 의미한다. 방향 그래프(directed graph) or 다이그래프(digraph): 간선에 방향정보가 포함되어 있는 그래프를 의미한다. 완전 그래프(complete graph): 각각의 정점에서 다른 모든 정점을 연결한 그래프를 의미한다. 방향 그래프의 간선의 수는 무방향 간선..
테이블의 핵심 주제라 할 수 있는 충돌 문제의 해결책을 몇 가지 알아보고, 구현해보자. 열린 어드레싱 방법 열린 어드레싱 방법(open addressing method): 충돌이 발생하면 다른 자리에 대신 저장하는 방법 선형 조사법, 이차 조사법, 이중 해쉬가 이에 속한다. 선형 조사법 선형 조사법(Linear Probing): 충돌이 발생했을 때 그 옆자리가 비었는지 살펴보고, 비었을 경우 그 자리에 대신 저장하는 방법이다. 옆자리가 비어있지 않을 경우, 옆으로 한 칸 더 이동을 해서 자리를 살핀다. 그러나, 이런 구조는 충돌의 횟수가 증가함에 따라 '클러스터(cluster) 현상(특정 영역에 데이터가 집중적으로 몰리는 현상)'이 발생하기 쉽다. 이런 선형 조사법의 단점을 극복할 수 있는 방법이 이차 ..