본문 바로가기
728x90
반응형

분류 전체보기218

8장 - 컴퓨터 비전을 위한 딥러닝 CNN(Convolutional Neural Network) : 딥러닝 모델의 한 종류, convnet이라고도 부름 8.1 합성곱 신경망 소개 ConvNet 정의와 ConvNet이 컴퓨터 비전 관련 작업에 잘 맞는 이유에 대한 이론적 배경을 설명. 2장에서 밀집 연결 신경망(densely connected network)으로 풀었던 MNIST 숫자 이미지 분류에 컨브넷을 사용할 예정. 컨브넷 배치 차원을 제외하고 (image_height, image_width, image_channels) 크기의 입력 텐서를 사용한다는 점이 중요. Conv2D와 MaxPooling2D 층의 출력 : (height, width, channels) 크기의 랭크-3 텐서. ㄴ (높이와 너비 차원은 모델이 깊어질수록 작아지는 .. 2023. 1. 22.
[모각소] 2 Titanic - Model 개발 https://github.com/JHWannabe/TIL/blob/main/20230120/Titanic_%EC%83%9D%EC%A1%B4%EC%9E%90_%EC%98%88%EC%B8%A1.ipynb GitHub - JHWannabe/TIL Contribute to JHWannabe/TIL development by creating an account on GitHub. github.com 타이타닉의 데이터 전처리 2023. 1. 20.
[모각소] 1 Titanic - Data 분석 Kaggle의 대표적인 문제 중 하나인 타이타닉 생존자 예측을 하는 모델을 구현하기로 한다. 데이터는 https://bit.ly/fc-ml-titanic에서 다운받을 수 있다. https://github.com/JHWannabe/TIL/blob/main/20230113/titanic_disaster.ipynb GitHub - JHWannabe/TIL Contribute to JHWannabe/TIL development by creating an account on GitHub. github.com PassengerId : 승객 아이디 Survived : 생존 여부(1:생존, 0:사망) Pclass : 등급 Name : 승객 이름 Sex : 성별 Age : 나이 SibSp : 형제, 자매, 배우자 수 P.. 2023. 1. 20.
7장 - 케라스 완전 정복 7.1 다양한 워크플로 케라스 API 설계는 복잡성의 단계적 공개(progressive disclosure) 원칙을 따른다. ㄴ 시작은 쉽게 하고, 필요할 때 단계마다 점진적으로 학습하여 아주 복잡한 경우를 처리할 수 있다. 케라스는 매우 간단한 것부터 매우 유연한 것까지 다양한 워크플로를 제공한다. 이를 통해 다양한 요구 사항을 충족시킬 수 있다. 이런 모든 워크플로는 동일하게 Layer와 Model 같은 API를 기반으로 하기 때문에 한 워크플로의 구성 요소를 다른 워크플로에서 사용할 수 있다. 즉, 워크플로 간에 서로 호출할 수 있다. 7.2 케라스 모델을 만드는 여러 방법 케라스에서 모델을 만드는 API 세 가지 Sequential 모델 : 가장 시작하기 쉬운 API. 기본적으로 하나의 파이썬 리.. 2023. 1. 15.
6장 - 일반적인 머신 러닝 워크플로 머신 러닝의 일반적인 워크플로 작업 정의 : 문제 영역과 고객의 요청 이면에 있는 비즈니스 로직을 이해한다. 데이터를 수집하고, 데이터가 드러내는 내용을 이해하고, 작업의 성공을 측정하는 방법을 선택한다. 모델 개발 : 머신 러닝 모델로 처리할 수 있는 데이터를 준비하고, 모델 평가 방법과 간단한 기준점을 선택하고, 일반화 성능을 가지며 과대적합할 수 있는 첫 번째 몯델을 훈련한다. 그 다음 가능한 최대의 일반화 성능에 도달할 때까지 모델에 규제를 추가하고 튜닝한다. 모델 배포 : 작업 결과를 고객에게 제시한다. 모델을 웹 서버, 모바일 앱, 웹 페이지 또는 임베디드 장치에 배포하고 실전에서 모델의 성능을 모니터링한다. 차세대 모델을 구축하기 위해 필요한 데이터 수집을 시작한다. 6.1 작업 정의 6.1.. 2023. 1. 14.
5장 - 머신 러닝의 기본 요소 5.1 일반화 : 머신 러닝의 목표 머신러닝의 근본적인 이슈 : 최적화와 일반화 사이의 줄다리기 ㄴ 최적화(optimization)는 가능한 훈련 데이터에서 최고의 성능으 얻으려고 모델을 조정하는 과정 ㄴ 일반화(generalization)는 훈련된 모델이 이전에 본 적없는 데이터에서 얼마나 잘 수행되는지 의미 5.1.1 과소적합과 과대적합 훈련 초기에 최적화와 일반화는 상호 연관되어 있음. 훈련데이터의 손실이 낮아질수록 테스트 데이터의 손실도 낮아짐 → 과소적합(underfitting) 훈련 데이터에서 훈련을 특정 횟수만큼 반복하고 난 후에는 일반화 성능이 더 이상 높아지지 않으며 검증 세트의 성능이 멈추고 감소되기 시작함 → 과대적합(overfitting) 5.1.2 딥러닝에서 일반화의 본질 매니폴드.. 2023. 1. 11.
728x90
반응형