본문 바로가기

딥러닝3

Tensorflow4 [회귀] 회귀는 데이터 분석 방법중 하나이다. 평균으로 회귀는 부모의 키 평균과 자녀의 키 평균을 비교하면 자녀의 키는 부모의 키보다 평균에 가까워지려는, 경향이 있다. 선형회귀는 데이터의 경향성을 가장 잘 설명하는 하나의 직선을 예측하는 방법 데이터의 경향성을 가장 잘 설명하는 하나의 직선과 각 데이터의 차이를 잔차라고 한다. 이런 잔차의 제곱을 최소화하는 알고리즘을 최소제곱이라고 한다. 최소 제곱법으로 직선 y=ax+b 의 a(기울기)와 b(y절편)을 구할 수 있다. plt에서 최소 제곱법을 구하는 방식은 a=sum([(y - y_bar) * (x - x_bar) for y, x in list(zip(Y, X))]) a /= sum([x-x_bar) ** 2 for x in X]) b = y_bar .. 2020. 9. 22.
Tensorflow2 XOR같은 키값으로 1차적인 뉴런(초창기 퍼셉트론)으로는 가중치 값을 편향할수 없다. 그래서 나온게 다중뉴런 이다. 2차적인 활성함수 이상일 경우 신경망 뉴런이라고 부르는데 xor같은 학습시킬때 신경망 뉴런을 이용하여 학습하면 해결이 된다. 이중 다중 신경망을 쓰기 위해서 keras를 사용한다. keras에서 가장 많이 쓰이는 구조는 tf.keras.Sequential구조이다. 순차적으로 뉴런과 뉴런이 합쳐진 단위인 레이어를 일직선으로 배치하는 구조이다. tf.keras.layers.Dense는 model에서 사용하는 레이어를 정의하는 명령어이다. Dense는 가장 기본적인 레이어로써, 레이어의 입력과 출력 사이에 있는 모든 뉴런이 서로 연결되는 레이어이다. model.compile(optimizer=t.. 2020. 9. 17.
Tensorflow1 신경망은 뉴런이 기본 요소임. 뉴런은 퍼셉트론이라고도 불림(tensorflow1). 입력을 받아서 계산 후 출력을 반환하는 단순한 구조임. 신경망은 뉴런이 여러개 모이면 레이어를 구성하는데 이 레이어가 다시 여러개의 형태로 구성되어지는 것이 신경망이라고 한다. 뉴런과 레이어를 우리말로 각각 신경 세포와 층이라고도 한다. 뉴런은 입력, 가중치, 활성화함수, 출력으로 구성된다. [뉴런의 구성요소] 입력X --> 활성화함수 f --> 출력Y (가중치w) 위의 뉴런의 출력 계산식은 다음과 같다. Y=f(X*w) 뉴런에서 학습할 때 바뀌는 것은 가중치이다. 활성화함수(가중치의 출력값에 점점 가까운 값을 얻을때 쓰여지는 함수)로는 시그모이드, ReLU등을 주고 쓰게 된다. 신경망 초기에는 시그모이드가 주료 쓰였지만.. 2020. 9. 15.