MNIST 데이터를 이용해 생성 적대 신경망을 구현하는 코드이다. 생성망과 분별망을 설계하고 학습하며 생성망에서 진짜 같은 가짜 샘플을 출력해내도록 하는 것이 목표! 전체 코드 import numpy as np from tensorflow.keras.datasets import mnist from tensorflow.keras.layers import Input, Activation, Dense, Flatten, Reshape, Conv2D, Conv2DTranspose, Dropout, BatchNormalization, UpSampling2D from tensorflow.keras.models import Model from tensorflow.keras import backend as K from ..
앞선 게시물에서 MNIST를 이용하여 오토인코더를 구현하였다. [tensorflow] MNIST를 이용한 오토인코더 (Auto Encoder) MNIST 필기 숫자 데이터를 가지고 오토인코더를 구현한다. 📃 Tensorflow 라이브러리에서 MNIST 데이터를 가져올 수 있다. 전체 코드 import numpy as np from tensorflow.keras.datasets import mnist from tenso.. haystar.tistory.com 이 포스팅은 학습된 디코더로 새로운 샘플을 생성하는 프로그램으로 두가지 실험을 수행한다. 생성실험 1 첫 번째 샘플의 잠복 공간 표현에 잡음을 섞어 새로운 샘플 생성 생성실험 2 같은 부류의 샘플 사이를 보간하여 새로운 샘플 생성 전체 코드 #생성 실..
MNIST 필기 숫자 데이터를 가지고 오토인코더를 구현한다. 📃 Tensorflow 라이브러리에서 MNIST 데이터를 가져올 수 있다. 전체 코드 import numpy as np from tensorflow.keras.datasets import mnist from tensorflow.keras.layers import Input, Dense, Flatten, Reshape, Conv2D, Conv2DTranspose from tensorflow.keras.models import Model from tensorflow.keras import backend as K #MNIST 데이터 읽고 신경망 입력 준비 (x_train, y_train), (x_test, y_test) = mnist.load_dat..
넘파이를 사용하면서 자주 등장하고 쓰이는 함수들에 대해 정리해보았다. numpy 변환, random, 연산 등 기본적인 것들이라 이미 알고있다면 넘어가도 좋다. ※ 자주 사용하는 numpy 함수¶ In [1]: import numpy as np numpy 배열¶ In [2]: np.array([0,1,2,3]) Out[2]: array([0, 1, 2, 3]) 기존 리스트를 numpy배열로 변환¶ In [3]: tmp = [[0,2],[2,3],[6,8]] np.asarray(tmp) Out[3]: array([[0, 2], [2, 3], [6, 8]]) In [4]: tmp = [[0,2],[2,3],[6,8]] np.array(tmp) Out[4]: array([[0, 2], [2, 3], [6, 8..
DQN으로 CartPole문제를 풀기 위한 신경망 학습 코드이다. CartPole란? 좌우로 이동할 수 있는 수레 위에 막대가 꼿꼿히 선 상태에서 게임 시작 그냥 두면 쓰러지므로 수레를 왼쪽/오른쪽으로 재빨리 움직여 균형을 잡음 목표는 막대를 쓰러트리지 않고 오래 유지하는 것 이에 대한 자세한 내용은 아래 게시물 목차 5.2 확인 08) 강화 학습과 게임 지능 - 파이썬으로 배우는 인공지능 1 강화학습의 원리와 응용 1.1 다중 손잡이 밴딧 문제 여러 손잡이 중 하나를 선택해 1달러를 넣고 당기면 동전을 먹거나 2달러를 내놓는 기계 플레이어는 1달러를 잃거나 1달러를 따게 됨 손잡이 haystar.tistory.com 🎲 Q러닝 학습에 사용되는 행동가치함수 $q$를 개선하는 공식 전체 코드 import ..
📢 아래 코드는 gym라이브러리에서 FrozenLake-v0 환경을 불러와 실행한다. 전체 코드 import gym import numpy as np env= gym.make('FrozenLake-v0',is_slippery=False) #환경 생성 Q=np.zeros([env.observation_space.n,env.action_space.n]) #Q배열 초기화 rho=0.8 #학습률 lamda=0.99 #할인율 n_episode= 2000 length_episode=100 #최적 행동 가치 함수 찾기 for i in range(n_episode): s=env.reset() for j in range(length_episode): argmaxs= np.argwhere(Q[s,:]==np.amax(Q[..