Neural Network에 오신걸 환영합니다. 지금 바로브라우저상에서 만져보자!

4 방법 선택: 모델의 정의
5 학습 방법 설계: 모델 생성
6 학습 : 트레이닝

Epoch

1 데이터 준비

2 문제 유형

어떤 데이터 세트를 사용하나요?

3 전처리

입력 레이어

입력 데이터로 사용하고 싶은속성을 선택해 주세요.

클릭하면 값을 수동으로 편집할 수 있습니다.
가중치/편향 : 0.2
이것은 이 뉴런(neuron)의 출력 내용입니다. 마우스를 올리면 오른쪽 출력 위치로 확대됩니다.
출력은 변화하는 가중치 와 합성됩니다. 가중치는 선의 두께로 표시됩니다.
4

출력 레이어 ⇒ 7 평가

Train loss
Validation loss
Train acc (정답률)
Validation acc
데이터 / 뉴런(neurons) / 가중치의 값을 색으로 표현.

8 테스트 ⇒ 완성

X좌표 Y좌표 분류 예측

음, 신경망은 무엇입니까?

데이터로부터 학습하는 컴퓨터 프로그램을 구축하는 기술. 「인간의 뇌의 일」을 대략 흉내낸 것입니다.
첫째, 뉴런(neuron:신경세포)라고 하는 단위기능을 레이어(layer) 안에 복수 작성하고, 또 레이어도 복수 작성한 후, 각 레이어간에 각각의 뉴런이 메시지를 교환할 수 있도록 결합(connections)시켜 네트워크를 형성합니다.
다음으로, 그 네트워크에 문제를 반복해 주어, 풀어 갑니다. 이것이 학습입니다. 학습할 때마다 정답으로 이끄는 결합은 강하고, 부정해에 이르는 결합은 약해져 가는 것으로, 문제에 대해 정답을 대답하는 정밀도(accuracy: 정답률)가 서서히 높아집니다. 반대로 말하면, 오차(error, 혹은 loss: 손실)가 작아져 가는 것입니다.

각 색의 의미는?

신경망의 학습 과정을 시각화하기 위해 파란색과 주황색을 사용합니다.
색의 사용법이 미묘하게 다른 부분은 있습니다만, 기본적으로, 청색은 「양의 값」(positive values)을 나타내고, 오렌지색은 「음의 값」(negative values)을 나타내고 있습니다.

입력 레이어(input layer)에 있어서는 데이터의 점(points: 작은 원으로 표현되고 있다) 각각이, 원래 청색 또는 오렌지색으로 착색되어 있습니다([출력]의 그래프도를 참조).
즉, 각 점이 처음부터 「정의 값」 또는 「부의 값」(정답 라벨)에 대응 붙여지고 있습니다.

숨겨진 레이어(hidden layers)에서는 뉴런 사이의 결합의 가중치(weights)에 의해 선이 착색되어 있습니다.
파란색 선은 "양의 가중치"(positive weight)를 나타내고 주황색 선은 "음의 가중치"(negative weight)를 나타냅니다.
양의 가중치는 선의 연결 소스에 있는 뉴런에서 주어진 출력을 다른 뉴런의 입력으로 사용할 가능성이 높습니다(=발화 촉진).
반대로, 음의 가중치는, 사용하지 않을 가능성이 높다(=발화를 억제한다)라고 하는 것입니다.
선의 색 농도는 결합의 강도를 나타냅니다.

출력 레이어(output layer)에 있어서는 전술한 바와 같이, 데이터의 점 각각이, 원래의 값(정답 라벨)에 근거해, 청색 또는 오렌지색으로 착색되고 있습니다.
또한 배경색이 적용된 영역은 학습된 네트워크에서 출력되는 예측 결과가 '긍정' 또는 '음' 영역에 들어가는지 시각적으로 표현합니다.
배경색의 농도는 예측 결과의 신뢰도를 나타냅니다.

어떤 라이브러리를 사용하고 있습니까?

이 페이지에서 제공하는 소프트웨어의 목적은 교육용 신경망을 시각화하는 것입니다. 이것을 실현하기 위해 독자적으로 작성한 작은 신경망 라이브러리를 사용하고 있습니다. 실제 세계의 애플리케이션을 위해, TensorFlow 라이브러리 사용을 고려하십시오.

크레딧

이 페이지와 소프트웨어는 Daniel Smilkov와 Shan Carter가 작성했습니다.
이것은 많은 사람들의 과거 성과를 상속함으로써 이루어집니다. 특히 Karpathy의 convnet.js 데모와 Chris Olah 씨의 신경망에 관한 기사가 도움이 됩니다.
또한 원래의 아이디어로 도와 주신 D. Sculley 씨, 피드백과 지도를 받은 Fernanda Viégas 씨, Martin Wattenberg 씨, 그 외 Big Picture & Google Brain 팀에 감사드립니다.