Deep learning
-
2021-07-12 읽을거리읽을거리 2021. 7. 12. 21:47
python 1. python에서 유용하게 쓰이는 vscode extension들 vscode에서 python 코딩할 때 많이 쓰이는 extension들에 대한 글을 두 가지 소개한다. 이전과도 중복되는 것도 있고, 두 글들 간에 중복되는 것도 있지만 해당 기능들에 익숙해지면 편하게 코딩할 수 있을 것이다. https://medium.com/pythoneers/5-vs-code-extensions-for-python-developers-8f3c9efec019 5 VS Code Extensions For Python Developers Helpful Extensions To Write Better Code medium.com https://betterprogramming.pub/the-best-vs-cod..
-
2021-06-27 읽을거리읽을거리 2021. 6. 27. 22:44
python 1. python의 8가지 built-in 함수 이전에 공유한 built-in 함수 글들과 겹치는 부분들도 있지만 새로운 함수들도 있어서 볼 만 하다 https://levelup.gitconnected.com/8-built-in-functions-every-python-programmer-should-know-3552eb768894 8 Built-in Functions Every Python Programmer Should Know Python functions that are amazing and useful levelup.gitconnected.com 2. python 에서 큰 데이터셋을 효과적으로 읽는 방법 주요 키워드는 yield 를 사용한 generator이다. for 문에 open..
-
GPU 연산 잘 사용하기딥러닝/딥러닝 etc 2021. 4. 2. 17:45
이전에 어디선가 포스팅한 글을 읽었는데 (아마 velog일 것이다) 내가 생각하는 최적화와 딥러닝에서 돌아가는 최적화의 갭이 매우 크다라는 것을 느꼈다. 딥러닝하는 사람들이라면 모두 "GPU는 행렬 연산에 최적화되어 있다" 라는 말을 많이 봤을 것이다. 딥러닝에서 사용하는 연산은 행렬에 최적화되어 있지만 프로그래밍으로 접하는 사람들은 단순히 반복문을 적게 쓰고 Big-O 을 줄이는 방식으로 많이들 생각하겠지만 GPU의 최적화는 무조건 행렬이다. import torch import random import time RANGE = 10000 device = 'cuda' data = torch.Tensor([random.random() for _ in range(RANGE)]).to(device) mul_to..
-
[기초 3] data 가공딥러닝/tensorflow 2020. 6. 22. 23:31
근 2달 만에 블로그에 글을 쓸 여유가 생겼다. 기존에는 data 가공 부분에 generator를 서술하려고 했지만 tensorflow 2의 dataset과 비교해본 결과, 이 것이 좀 더 자원을 효율적으로 쓰는 이유로 dataset를 뼈대로 삼아 서술하려 한다. 튜토리얼은 tensorflow 사이트에 공식 문서화되어 있어서 이 것만 따라해도 쉽게 할 수 있다. www.tensorflow.org/guide/data_performance?hl=ko tf.data API로 성능 향상하기 | TensorFlow Core Note: 이 문서는 텐서플로 커뮤니티에서 번역했습니다. 커뮤니티 번역 활동의 특성상 정확한 번역과 최신 내용을 반영하기 위해 노력함에도 불구하고 공식 영문 문서의 내용과 일치하지 않을 수 w..
-
[keras] generator를 이용한 multiple input data딥러닝/tensorflow 2020. 2. 17. 14:10
tensorflow 2.0의 keras를 사용하면서 하나의 모델에 여러 개의 input data를 넣어야하는 경우가 생겼다 그러면서 이전에 classification 모델을 복붙해서 진행하려고 했지만 그 모델은 input이 한 개여서 문제가 생겼다 그리고 해당 모델에 generator까지 같이 쓰려고 하니 좀 더 복잡해져서 예제 코드를 새로 만들었다 import math from keras.models import Sequential, Model from keras.layers import Dense, concatenate, Flatten batch_size = 16 seed = 100 def buildModel(): #first model first_model = Sequential() first_mo..
-
efficientNet 개발 (3)딥러닝/tensorflow 2020. 2. 12. 10:44
class Preprocess(): def __init__(self, batch_size, img_width, img_height): self.img_width = img_width self.img_height = img_height self.batch_size = batch_size def makeGenerator(self, train_x, train_y, fit_val): train_datagen = ImageDataGenerator(rotation_range = fit_val['rotation_range'],\ horizontal_flip = fit_val['horizontal_flip'],\ vertical_flip = fit_val['vertical_flip'],\ preprocessing_fu..
-
efficientnet 개발 (2)딥러닝/tensorflow 2020. 2. 12. 10:19
요 며칠 속이 뒤집어져서 이제야 글을 쓴다 일단 이전에 efficientNet 클래스 내부에 더 들어간 코드를 먼저 올린다 def fit(self, train_x, train_y): es = EarlyStopping(monitor='val_loss', mode='auto', verbose=1, patience=12) checkpoint = ModelCheckpoint(self.weight_path, \ monitor='val_acc', \ verbose=1, \ save_best_only=True, \ save_weights_only=True, \ mode='max') self.model.fit(train_x, \ train_y, \ batch_size=self.batch_size, \ epochs=5,..
-
efficientNet딥러닝/tensorflow 2020. 2. 8. 22:25
일단 이전에 pytorch 게시판에서 작성한 hardnet 등의 segmentation 이후의 classification 에 대한 모델 중 SOTA 알고리즘으로 efficientNet 을 사용하였다 efficientNet에 관련한 설명은 아래 링크에 잘 설명되어 있다 https://norman3.github.io/papers/docs/efficient_net EfficientNet: Rethinking Model Scaling for CNN. 참고로 그림 2(a) 에서 입력 크기는 \(\) 이고, 출력 크기는 \(\) 이다. norman3.github.io 그리고 내부에 쓰인 MBConv layer는 아래 링크의 linear bottleneck을 참조 https://n1094.tistory.com/29 ..