<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://mediawiki.zeropage.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=14.32.111.6</id>
	<title>ZeroWiki - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://mediawiki.zeropage.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=14.32.111.6"/>
	<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php/Special:Contributions/14.32.111.6"/>
	<updated>2026-05-14T13:06:21Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.39.8</generator>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D%EC%8A%A4%ED%84%B0%EB%94%94/2017&amp;diff=50394</id>
		<title>머신러닝스터디/2017</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%A8%B8%EC%8B%A0%EB%9F%AC%EB%8B%9D%EC%8A%A4%ED%84%B0%EB%94%94/2017&amp;diff=50394"/>
		<updated>2017-07-25T15:16:02Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&amp;amp;#91;&amp;amp;#91;pagelist(^(머신러닝스터디/2017/))&amp;amp;#93;&amp;amp;#93;&lt;br /&gt;
&lt;br /&gt;
* CNN, Artistic style&lt;br /&gt;
* Reinforcement learning, game play&lt;br /&gt;
&lt;br /&gt;
=== Reinforcement Learning ===&lt;br /&gt;
https://en.wikipedia.org/wiki/Bellman_equation&lt;br /&gt;
Planning vs Learning&lt;br /&gt;
Planning&lt;br /&gt;
* Know about Model&lt;br /&gt;
* Dynamic Programming&lt;br /&gt;
Learning&lt;br /&gt;
* Model free&lt;br /&gt;
* Monte Carlo method, Temporal Difference learning&lt;br /&gt;
==== Monte-Carlo Reinforcement Learning ====&lt;br /&gt;
&lt;br /&gt;
* 직접적인 경험으로부터 배움&lt;br /&gt;
* Model-free : 직접적인 MDP transition과 보상을 알 필요가 없다&lt;br /&gt;
* 끝난 에피소드로부터 학습한다.&lt;br /&gt;
* episodic MDP 문제만 풀 수 있다.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Temporal-Difference Learning ====&lt;br /&gt;
&lt;br /&gt;
* 경험으로부터 학습한다&lt;br /&gt;
* model-free&lt;br /&gt;
* 끌나지 않은 경험에서도 학습 가능하다(Bootstraping)&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49166</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49166"/>
		<updated>2017-07-16T14:23:22Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
머신 러닝의 세가지 분류&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 feature(입력값)와 label(원하는 결과값)을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and label&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: feature만 입력, 보통 projection등으로 feature의 차원을 축소시킨다.&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
** Model free: 게임의 규칙을 알려주지 않음&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# 일단 cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 실습코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* DeepMind의 DQN 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning]. 한글로 되어 있다!&lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 후기 및 기타의견 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49165</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49165"/>
		<updated>2017-07-03T16:17:33Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
머신 러닝의 세가지 분류&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 feature(입력값)와 label(원하는 결과값)을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and label&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: feature만 입력, 보통 projection등으로 feature의 차원을 축소시킨다.&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
** Model free: 게임의 규칙을 알려주지 않음&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# 일단 cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 실습코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* DeepMind의 DQN 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning]. 한글로 되어 있다!&lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 후기 및 기타의견 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49164</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49164"/>
		<updated>2017-07-03T16:15:58Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
머신 러닝의 세가지 분류&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 feature(입력값)와 label(원하는 결과값)을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and label&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: feature만 입력, 보통 projection등으로 feature의 차원을 축소시킨다.&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# 일단 cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 실습코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* DeepMind의 DQN 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning]. 한글로 되어 있다!&lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 후기 및 기타의견 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49163</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49163"/>
		<updated>2017-07-03T16:14:48Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
머신 러닝의 세가지 분류&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 feature(입력값)와 label(원하는 결과값)을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and label&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: value만 입력, projection등으로 전처리한 값들로 계산&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# 일단 cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 실습코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* DeepMind의 DQN 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning]. 한글로 되어 있다!&lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 후기 및 기타의견 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49162</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49162"/>
		<updated>2017-07-03T16:14:02Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
머신 러닝의 세가지 분류&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 value와 label을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and target&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: value만 입력, projection등으로 전처리한 값들로 계산&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# 일단 cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 실습코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* DeepMind의 DQN 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning]. 한글로 되어 있다!&lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 후기 및 기타의견 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49161</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49161"/>
		<updated>2017-07-01T16:40:17Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 value와 label을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and target&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: value만 입력, projection등으로 전처리한 값들로 계산&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# 일단 cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 실습코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* DeepMind의 DQN 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning]. 한글로 되어 있다!&lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 후기 및 기타의견 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/InternalOfJavaScriptCore%27sGarbageCollector&amp;diff=49079</id>
		<title>데블스캠프2017/InternalOfJavaScriptCore&#039;sGarbageCollector</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/InternalOfJavaScriptCore%27sGarbageCollector&amp;diff=49079"/>
		<updated>2017-07-01T16:40:01Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
== Contents ==&lt;br /&gt;
* GC 의 개요&lt;br /&gt;
* JSC(WebKit) 의 GC 구현&lt;br /&gt;
* 메모리 누수 사례&lt;br /&gt;
&lt;br /&gt;
== Garbage Collector ==&lt;br /&gt;
* 메모리 관리를 런타임에 자동으로 해주는 시스템&lt;br /&gt;
* 최초의 구현은 1958 년도 LISP&lt;br /&gt;
&lt;br /&gt;
== GC vs Manual ==&lt;br /&gt;
* 프로그래머의 생산성&lt;br /&gt;
* 프로그램의 효율성&lt;br /&gt;
*** 메모리 관리자의 처리량 + 정지 시간&lt;br /&gt;
*** 공간 오버헤드&lt;br /&gt;
&lt;br /&gt;
 =&amp;gt; 연구 결과를 통해서 성능차이가 없는 것을 증명했다. (단, 메모리를 5배 정도 더 줄 때)&lt;br /&gt;
 =&amp;gt; 보통의 경우 17%의 오버헤드가 있다.&lt;br /&gt;
 =&amp;gt; Manual 하게 할 때도 오버헤드는 있다.&lt;br /&gt;
 &lt;br /&gt;
== Definitions ==&lt;br /&gt;
* Heap &lt;br /&gt;
 프로그램 사용 영역&lt;br /&gt;
* Roots&lt;br /&gt;
 javascript 로 따지면 windows 같은 것,  절대로 해제가 안될 것, global하게 노출되어 있는 것&lt;br /&gt;
* Collector&lt;br /&gt;
* Mutators&lt;br /&gt;
&lt;br /&gt;
== Object Liveness ==&lt;br /&gt;
* Dead : 안쓰고 있는 메모리&lt;br /&gt;
* Live : 사용하고 있는 메모리 &lt;br /&gt;
** True liveness =&amp;gt; 실제로 판별하기 굉장히 어려움&lt;br /&gt;
** Pointer reachability =&amp;gt; 대부분의 경우 이 방식&lt;br /&gt;
&lt;br /&gt;
== Mark-Sweep GC ==&lt;br /&gt;
* 간접적인 GC 알고리즘&lt;br /&gt;
* Dead 오브젝트가 아닌 Live 오브젝트들을 모두 추적&lt;br /&gt;
* 나머지 Garbage 로 결정&lt;br /&gt;
* JSC 에서도 이 알고리즘을 사용&lt;br /&gt;
&lt;br /&gt;
* 메모리를 많이 쓸 수록 느려짐 =&amp;gt; 메모리를 적게 쓰는 경우일수록 효율적&lt;br /&gt;
 javascript도 이 방식을 사용한다.&lt;br /&gt;
&lt;br /&gt;
=== Mark 단계 ===&lt;br /&gt;
* root 에서 도달 가능한 것을 Mark&lt;br /&gt;
&lt;br /&gt;
=== Sweep 단계 ===&lt;br /&gt;
* Mark 단계에서 체크되지 않은 것들은 도달할수 없기 때문에 삭제&lt;br /&gt;
&lt;br /&gt;
=== Lazy Sweep ===&lt;br /&gt;
* 한번 Dead 오브젝트가 되면 영원히 Dead&lt;br /&gt;
* mutator 들은 mark-bit에 접근할 수 없다&lt;br /&gt;
* &#039;&#039;&#039;Sweep 오퍼레이션은 병렬로 실행해도 괜찮다&#039;&#039;&#039;&lt;br /&gt;
* 보다 간단한 해결책으로 allocate 함수에서 sweep 수행&lt;br /&gt;
&lt;br /&gt;
=== Generation GC ===&lt;br /&gt;
* 약한 세대 가설 =&amp;gt; 75~95% 객체가 10KB 이내에 죽는다.&lt;br /&gt;
&lt;br /&gt;
=== Mark-Sweep GC 특징 ===&lt;br /&gt;
* 뮤테이터 오버헤드가 작다&lt;br /&gt;
* 공간 오버헤드가 참조 카운팅보다 적다&lt;br /&gt;
* lazy sweep 과 조화시키면 전체 처리량도 좋은 편&lt;br /&gt;
* 힙에 충분한 여유공간을 필요로 한다&lt;br /&gt;
&lt;br /&gt;
== JSC 의 가비지 컬렉터 구현 ==&lt;br /&gt;
* 발표 ppt 참조&lt;br /&gt;
&lt;br /&gt;
=== Eden collection ===&lt;br /&gt;
* JSC 에서는 힙 공간을 물리적으로 나누지 않는다&lt;br /&gt;
* 그냥 root 셋에서부터 도달 가능한 객체들만 marking 하고 종료&lt;br /&gt;
* Sweep 은 allocation 시점에 lazy-sweep&lt;br /&gt;
* marking 된 객체를 Old gen 으로 간주&lt;br /&gt;
&lt;br /&gt;
=== Full collection ===&lt;br /&gt;
* Eden collection 수행 후 잔여 힙 크기가 30% 미만일 경우 다음 GC를 full collection 으로 예약&lt;br /&gt;
* 페이지가 변경될 때 WebCore 에서 Full collection 을 요청&lt;br /&gt;
* marking 전에, 모든 블록의 mark bitmap 을 초기화&lt;br /&gt;
* 이후 동작은 eden collection 과 유사&lt;br /&gt;
&lt;br /&gt;
=== JSC GC 세줄 요약 ===&lt;br /&gt;
# MarkedSpace::clearMarks() &lt;br /&gt;
# JSC::visitChildren()&lt;br /&gt;
# sweep()&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49160</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49160"/>
		<updated>2017-07-01T15:48:55Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 value와 label을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and target&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: value만 입력, projection등으로 전처리한 값들로 계산&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# 일단 cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 실습코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* DeepMind의 DQN 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning]. 한글로 되어 있다!&lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 하고싶은 말 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49159</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49159"/>
		<updated>2017-07-01T15:48:15Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 value와 label을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and target&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: value만 입력, projection등으로 전처리한 값들로 계산&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# 일단 cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 실습코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* DeepMind의 DQN 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning] &lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 하고싶은 말 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49158</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49158"/>
		<updated>2017-07-01T15:47:14Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 value와 label을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and target&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: value만 입력, projection등으로 전처리한 값들로 계산&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# 일단 cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning] &lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 하고싶은 말 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49157</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49157"/>
		<updated>2017-07-01T15:46:56Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 value와 label을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and target&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: value만 입력, projection등으로 전처리한 값들로 계산&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
=== 순서 ===&lt;br /&gt;
# cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning] &lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 하고싶은 말 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49156</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49156"/>
		<updated>2017-07-01T15:46:41Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 value와 label을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and target&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: value만 입력, projection등으로 전처리한 값들로 계산&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
&lt;br /&gt;
# cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning] &lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 하고싶은 말 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49155</id>
		<title>데블스캠프2017/강화학습으로컴퓨터에게고전게임플레이시키기</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/%EA%B0%95%ED%99%94%ED%95%99%EC%8A%B5%EC%9C%BC%EB%A1%9C%EC%BB%B4%ED%93%A8%ED%84%B0%EC%97%90%EA%B2%8C%EA%B3%A0%EC%A0%84%EA%B2%8C%EC%9E%84%ED%94%8C%EB%A0%88%EC%9D%B4%EC%8B%9C%ED%82%A4%EA%B8%B0&amp;diff=49155"/>
		<updated>2017-07-01T15:44:58Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
= machine learning =&lt;br /&gt;
# Supervised learning&lt;br /&gt;
# Unsupervised learning&lt;br /&gt;
# Reinforcement learning&lt;br /&gt;
== supervised learning ==&lt;br /&gt;
* 학습을 시킬 때 input으로 value와 label을 함께 전달&lt;br /&gt;
* Learning from difference between prediction and target&lt;br /&gt;
* e.g. mnist, classification&lt;br /&gt;
== unsupervised learning ==&lt;br /&gt;
* input: value만 입력, projection등으로 전처리한 값들로 계산&lt;br /&gt;
* Cluster by distance between inputs&lt;br /&gt;
* Human can&#039;t predict the outcome&lt;br /&gt;
* e.g. clustering&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* 일종의 unsupervised learning&lt;br /&gt;
* input : environment, reward, output : action&lt;br /&gt;
* Learn from try&lt;br /&gt;
* Model free&lt;br /&gt;
* e.g. game play, stock trading&lt;br /&gt;
== reinforcement learning ==&lt;br /&gt;
* Q learning&lt;br /&gt;
* Q learning + Neural Network&lt;br /&gt;
* DQN : Deep Q Learning&lt;br /&gt;
** hidden layer를 늘리는게 다가 아니다!&lt;br /&gt;
== Basic knowledge ==&lt;br /&gt;
* MDP : Markov Decision Process&lt;br /&gt;
* Bellman equation&lt;br /&gt;
* Dynamic programming&lt;br /&gt;
* Value, Polish&lt;br /&gt;
* Value function, Polish function&lt;br /&gt;
* Value iteration, Polish iteration&lt;br /&gt;
&lt;br /&gt;
== 실습 ==&lt;br /&gt;
* [https://gym.openai.com gym]: Reinforcement learning을 위한 고전 게임들을 python으로 포팅한 toolkit. 직접 구현한 것도 있고 atari는 포팅함. [https://github.com/openai/gym in github]에 코드가 공개되어 있다.&lt;br /&gt;
** 오늘 실습할 [https://gym.openai.com/envs/CartPole-v0 cartpole]&lt;br /&gt;
* 필요한 라이브러리: numpy, gym, tensorflow 필요&lt;br /&gt;
   $ pip install gym&lt;br /&gt;
   $ pip install tensorflow &lt;br /&gt;
# cartpole 실행을 해보자! - [https://github.com/Rabierre/cartpole/blob/master/cartpole_init.py cartpole_init.py]&lt;br /&gt;
# random action(왼쪽, 오른쪽)을 하는 cartpole - [https://github.com/Rabierre/cartpole/blob/master/cartpole_random.py cartpole_random.py]&lt;br /&gt;
# q-network(q-learning의 NN버전) - [https://github.com/Rabierre/cartpole/blob/master/cartpole_qnetwork.py cartpole_qnetwork.py] &lt;br /&gt;
# DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn.py cartpole_dqn.py]&lt;br /&gt;
# 2015에 Deep Mind에서 발표한 DQN - [https://github.com/Rabierre/cartpole/blob/master/cartpole_dqn2015.py cartpole_dqn2015.py]&lt;br /&gt;
== Reference ==&lt;br /&gt;
* 발표 슬라이드: [https://slides.com/rabierre/playing_a_game_with_rl slide]&lt;br /&gt;
* 코드: [https://github.com/Rabierre/cartpole github]&lt;br /&gt;
* 논문: [https://arxiv.org/abs/1312.5602 Playing Atari with Deep Reinforcement Learning]&lt;br /&gt;
* Tensorflow tutorial: [https://github.com/golbin/TensorFlow-Tutorials/tree/master/10%20-%20DQN DQN]&lt;br /&gt;
== Furthermore ==&lt;br /&gt;
* [https://en.wikipedia.org/wiki/David_Silver_(programmer) David Silver]의 강의 &lt;br /&gt;
** [http://www0.cs.ucl.ac.uk/staff/d.silver/web/Teaching.html 강의노트]&lt;br /&gt;
** [https://www.youtube.com/watch?v=2pWv7GOvuf0 강의 영상]&lt;br /&gt;
* Gitbook: [https://www.gitbook.com/book/dnddnjs/rl/details Fundamental of Reinforcement Learning] &lt;br /&gt;
* 레퍼런스 모음: [[Machine%20Learning]]&lt;br /&gt;
== 하고싶은 말 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27920</id>
		<title>AlgorithmStudy/CLRS</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27920"/>
		<updated>2017-04-25T15:27:09Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
* `Introduction to Algorithms` 책으로 행아웃 온라인 스터디를 합니다.&lt;br /&gt;
* 기본적으로 매주 토요일 오전 11시, 혹은 일요일 오전 11시&lt;br /&gt;
* 참가자 : [[서지혜]], [[최다인]]&lt;br /&gt;
&lt;br /&gt;
* [[http://hothobbang.tistory.com/m/59|공부방법에 대한 좋은 글]]&lt;br /&gt;
== 진행 상황 ==&lt;br /&gt;
=== 1주차 (2017/03/26 일) ===&lt;br /&gt;
* 1장을 읽음&lt;br /&gt;
* 22장 그래프로 바로 건너뜀. 22장 읽기&lt;br /&gt;
* 그래프 기본 문제 풀어보기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7576|토마토]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7579|토마토(난이도 UP)]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/2606|바이러스]]&lt;br /&gt;
* 연습문제 하나씩 풀어와서 공유&lt;br /&gt;
** [[서지혜]] : 22.5-2&lt;br /&gt;
** [[최다인]] : 22.3-13&lt;br /&gt;
=== 2주차 (2017/04/02 일) ===&lt;br /&gt;
* 22장을 읽음&lt;br /&gt;
* Topological sort와 Strongly connected components의 pseudocode 설명이 부실하다...&lt;br /&gt;
* 연습문제 3-13의 단일 연결에 대한 이야기&lt;br /&gt;
* 23장 읽어오기&lt;br /&gt;
* 최소 신장 트리 기본 문제 + 못 푼 문제 풀어오기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1922|네트워크 연결]]&lt;br /&gt;
* 연습문제 풀고 싶은 것 하나씩 풀어와서 공유&lt;br /&gt;
=== 3주차 (2017/04/09 일) ===&lt;br /&gt;
* 23장을 읽음&lt;br /&gt;
=== 4주차 (2017/04/15 토) ===&lt;br /&gt;
* 24장 읽기로 했음&lt;br /&gt;
** 이번주 스터디 쉽니다&lt;br /&gt;
* 다음주: 24장 각자 읽고, 25장 하기로 함.&lt;br /&gt;
=== 5주차 (2017/04/23 일) ===&lt;br /&gt;
* 25장 읽음&lt;br /&gt;
** &#039;&#039;&#039;APSP(All Pairs of Shortest Path)&#039;&#039;&#039; 알고리즘 중 Matrix multiplication 알고리즘에 대해 이야기 함&lt;br /&gt;
** &lt;br /&gt;
 while m &amp;amp;lt; n-1 {&lt;br /&gt;
     L^(2m) = L^(m)*L^(m)&lt;br /&gt;
     m = m*2&lt;br /&gt;
 }&lt;br /&gt;
** 이 때 m = n-1이고 n이 짝수이면 m은 홀수인데 어떻게 결과를 얻는가 혼란스러웠는데 m &amp;lt; n-1동안 루프를 반복하는 것이고 마지막 L의 차수는 2^m이므로 항상 짝수임을 알게되었다.&lt;br /&gt;
** 구글링한 학습 자료([[http://math.mit.edu/~rothvoss/18.304.1PM/Presentations/2-Chandler-slideslect2.pdf|1]], [[https://resources.mpi-inf.mpg.de/departments/d1/teaching/ss12/AdvancedGraphAlgorithms/Slides14.pdf|2]])에는 위 알고리즘이 &#039;&#039;&#039;seidel&#039;s algorithm이라고&#039;&#039;&#039; 명명되어 있는데 해당 키워드로 검색이 되지 않았다. 알고보니 seidel은 수학자이고 seidel&#039;s algorithm은 정식 명칭이 아니라 [[https://en.wikipedia.org/wiki/Gauss%E2%80%93Seidel_method|Gauss Seidel method]]이 정식 명칭인 듯 하다.&lt;br /&gt;
* 다음주: &#039;&#039;&#039;26.3장&#039;&#039;&#039; 까지 읽기, 문제 풀기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1014|컨닝]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/3640|제독]]&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27919</id>
		<title>AlgorithmStudy/CLRS</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27919"/>
		<updated>2017-04-23T13:50:57Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
* `Introduction to Algorithms` 책으로 행아웃 온라인 스터디를 합니다.&lt;br /&gt;
* 기본적으로 매주 토요일 오전 11시, 혹은 일요일 오전 11시&lt;br /&gt;
* 참가자 : [[서지혜]], [[최다인]]&lt;br /&gt;
&lt;br /&gt;
* [[http://hothobbang.tistory.com/m/59|공부방법에 대한 좋은 글]]&lt;br /&gt;
== 진행 상황 ==&lt;br /&gt;
=== 1주차 (2017/03/26 일) ===&lt;br /&gt;
* 1장을 읽음&lt;br /&gt;
* 22장 그래프로 바로 건너뜀. 22장 읽기&lt;br /&gt;
* 그래프 기본 문제 풀어보기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7576|토마토]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7579|토마토(난이도 UP)]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/2606|바이러스]]&lt;br /&gt;
* 연습문제 하나씩 풀어와서 공유&lt;br /&gt;
** [[서지혜]] : 22.5-2&lt;br /&gt;
** [[최다인]] : 22.3-13&lt;br /&gt;
=== 2주차 (2017/04/02 일) ===&lt;br /&gt;
* 22장을 읽음&lt;br /&gt;
* Topological sort와 Strongly connected components의 pseudocode 설명이 부실하다...&lt;br /&gt;
* 연습문제 3-13의 단일 연결에 대한 이야기&lt;br /&gt;
* 23장 읽어오기&lt;br /&gt;
* 최소 신장 트리 기본 문제 + 못 푼 문제 풀어오기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1922|네트워크 연결]]&lt;br /&gt;
* 연습문제 풀고 싶은 것 하나씩 풀어와서 공유&lt;br /&gt;
=== 3주차 (2017/04/09 일) ===&lt;br /&gt;
* 23장을 읽음&lt;br /&gt;
=== 4주차 (2017/04/15 토) ===&lt;br /&gt;
* 24장 읽기로 했음&lt;br /&gt;
** 이번주 스터디 쉽니다&lt;br /&gt;
* 다음주: 24장 각자 읽고, 25장 하기로 함.&lt;br /&gt;
=== 5주차 (2017/04/23 일) ===&lt;br /&gt;
* 25장 읽음&lt;br /&gt;
** &#039;&#039;&#039;APSP(All Pairs of Shortest Path)&#039;&#039;&#039; 알고리즘 중 Matrix multiplication 알고리즘에 대해 이야기 함&lt;br /&gt;
** &lt;br /&gt;
 while m &amp;amp;lt; n-1 {&lt;br /&gt;
     L^(2m) = L^(m)*L^(m)&lt;br /&gt;
     m = m*2&lt;br /&gt;
 }&lt;br /&gt;
** 이 때 m = n-1이고 n이 짝수이면 m은 홀수인데 어떻게 결과를 얻는가 혼란스러웠는데 m &amp;lt; n-1동안 루프를 반복하는 것이고 마지막 L의 차수는 2^m이므로 항상 짝수임을 알게되었다.&lt;br /&gt;
** 구글링한 학습 자료에는 위 알고리즘이 &#039;&#039;&#039;seidel&#039;s algorithm이라고&#039;&#039;&#039; 명명되어 있는데 해당 키워드로 검색이 되지 않았다. 알고보니 seidel은 수학자이고 seidel&#039;s algorithm은 정식 명칭이 아니라 [[https://en.wikipedia.org/wiki/Gauss%E2%80%93Seidel_method|Gauss Seidel method]]이 정식 명칭인 듯 하다.&lt;br /&gt;
* 다음주: &#039;&#039;&#039;26.3장&#039;&#039;&#039; 까지 읽기, 문제 풀기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1014|컨닝]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/3640|제독]]&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27918</id>
		<title>AlgorithmStudy/CLRS</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27918"/>
		<updated>2017-04-23T13:50:16Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
* `Introduction to Algorithms` 책으로 행아웃 온라인 스터디를 합니다.&lt;br /&gt;
* 기본적으로 매주 토요일 오전 11시, 혹은 일요일 오전 11시&lt;br /&gt;
* 참가자 : [[서지혜]], [[최다인]]&lt;br /&gt;
&lt;br /&gt;
* [[http://hothobbang.tistory.com/m/59|공부방법에 대한 좋은 글]]&lt;br /&gt;
== 진행 상황 ==&lt;br /&gt;
=== 1주차 (2017/03/26 일) ===&lt;br /&gt;
* 1장을 읽음&lt;br /&gt;
* 22장 그래프로 바로 건너뜀. 22장 읽기&lt;br /&gt;
* 그래프 기본 문제 풀어보기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7576|토마토]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7579|토마토(난이도 UP)]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/2606|바이러스]]&lt;br /&gt;
* 연습문제 하나씩 풀어와서 공유&lt;br /&gt;
** [[서지혜]] : 22.5-2&lt;br /&gt;
** [[최다인]] : 22.3-13&lt;br /&gt;
=== 2주차 (2017/04/02 일) ===&lt;br /&gt;
* 22장을 읽음&lt;br /&gt;
* Topological sort와 Strongly connected components의 pseudocode 설명이 부실하다...&lt;br /&gt;
* 연습문제 3-13의 단일 연결에 대한 이야기&lt;br /&gt;
* 23장 읽어오기&lt;br /&gt;
* 최소 신장 트리 기본 문제 + 못 푼 문제 풀어오기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1922|네트워크 연결]]&lt;br /&gt;
* 연습문제 풀고 싶은 것 하나씩 풀어와서 공유&lt;br /&gt;
=== 3주차 (2017/04/09 일) ===&lt;br /&gt;
* 23장을 읽음&lt;br /&gt;
=== 4주차 (2017/04/15 토) ===&lt;br /&gt;
* 24장 읽기로 했음&lt;br /&gt;
** 이번주 스터디 쉽니다&lt;br /&gt;
* 다음주: 24장 각자 읽고, 25장 하기로 함.&lt;br /&gt;
=== 5주차 (2017/04/23 일) ===&lt;br /&gt;
* 25장 읽음&lt;br /&gt;
** APSP(All Pairs of Shortest Path) 알고리즘 중 Matrix multiplication 알고리즘에 대해 이야기 함&lt;br /&gt;
** &lt;br /&gt;
 while m &amp;amp;lt; n-1 {&lt;br /&gt;
     L^(2m) = L^(m)*L^(m)&lt;br /&gt;
     m = m*2&lt;br /&gt;
 }&lt;br /&gt;
** 이 때 m = n-1이고 n이 짝수이면 m은 홀수인데 어떻게 결과를 얻는가 혼란스러웠는데 m &amp;lt; n-1동안 루프를 반복하는 것이고 마지막 L의 차수는 2^m이므로 항상 짝수임을 알게되었다.&lt;br /&gt;
** 구글링한 학습 자료에는 위 알고리즘이 seidel&#039;s algorithm이라고 명명되어 있는데 해당 키워드로 검색이 되지 않았다. 알고보니 seidel은 수학자이고 seidel&#039;s algorithm은 정식 명칭이 아니라 [[https://en.wikipedia.org/wiki/Gauss%E2%80%93Seidel_method|Gauss Seidel method]]이 정식 명칭인 듯 하다.&lt;br /&gt;
* 다음주: 26.3장 까지 읽기, 문제 풀기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1014|컨닝]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/3640|제독]]&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27917</id>
		<title>AlgorithmStudy/CLRS</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27917"/>
		<updated>2017-04-23T13:50:00Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
* `Introduction to Algorithms` 책으로 행아웃 온라인 스터디를 합니다.&lt;br /&gt;
* 기본적으로 매주 토요일 오전 11시, 혹은 일요일 오전 11시&lt;br /&gt;
* 참가자 : [[서지혜]], [[최다인]]&lt;br /&gt;
&lt;br /&gt;
* [[http://hothobbang.tistory.com/m/59|공부방법에 대한 좋은 글]]&lt;br /&gt;
== 진행 상황 ==&lt;br /&gt;
=== 1주차 (2017/03/26 일) ===&lt;br /&gt;
* 1장을 읽음&lt;br /&gt;
* 22장 그래프로 바로 건너뜀. 22장 읽기&lt;br /&gt;
* 그래프 기본 문제 풀어보기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7576|토마토]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7579|토마토(난이도 UP)]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/2606|바이러스]]&lt;br /&gt;
* 연습문제 하나씩 풀어와서 공유&lt;br /&gt;
** [[서지혜]] : 22.5-2&lt;br /&gt;
** [[최다인]] : 22.3-13&lt;br /&gt;
=== 2주차 (2017/04/02 일) ===&lt;br /&gt;
* 22장을 읽음&lt;br /&gt;
* Topological sort와 Strongly connected components의 pseudocode 설명이 부실하다...&lt;br /&gt;
* 연습문제 3-13의 단일 연결에 대한 이야기&lt;br /&gt;
* 23장 읽어오기&lt;br /&gt;
* 최소 신장 트리 기본 문제 + 못 푼 문제 풀어오기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1922|네트워크 연결]]&lt;br /&gt;
* 연습문제 풀고 싶은 것 하나씩 풀어와서 공유&lt;br /&gt;
=== 3주차 (2017/04/09 일) ===&lt;br /&gt;
* 23장을 읽음&lt;br /&gt;
=== 4주차 (2017/04/15 토) ===&lt;br /&gt;
* 24장 읽기로 했음&lt;br /&gt;
** 이번주 스터디 쉽니다&lt;br /&gt;
* 다음주: 24장 각자 읽고, 25장 하기로 함.&lt;br /&gt;
=== 5주차 (2017/04/23 일) ===&lt;br /&gt;
* 25장 읽음&lt;br /&gt;
** APSP(All Pairs of Shortest Path) 알고리즘 중 Matrix multiplication 알고리즘에 대해 이야기 함&lt;br /&gt;
 while m &amp;amp;lt; n-1 {&lt;br /&gt;
     L^(2m) = L^(m)*L^(m)&lt;br /&gt;
     m = m*2&lt;br /&gt;
 }&lt;br /&gt;
** 이 때 m = n-1이고 n이 짝수이면 m은 홀수인데 어떻게 결과를 얻는가 혼란스러웠는데 m &amp;lt; n-1동안 루프를 반복하는 것이고 마지막 L의 차수는 2^m이므로 항상 짝수임을 알게되었다.&lt;br /&gt;
** 구글링한 학습 자료에는 위 알고리즘이 seidel&#039;s algorithm이라고 명명되어 있는데 해당 키워드로 검색이 되지 않았다. 알고보니 seidel은 수학자이고 seidel&#039;s algorithm은 정식 명칭이 아니라 [[https://en.wikipedia.org/wiki/Gauss%E2%80%93Seidel_method|Gauss Seidel method]]이 정식 명칭인 듯 하다.&lt;br /&gt;
* 다음주: 26.3장 까지 읽기, 문제 풀기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1014|컨닝]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/3640|제독]]&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27916</id>
		<title>AlgorithmStudy/CLRS</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27916"/>
		<updated>2017-04-23T13:40:57Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
* `Introduction to Algorithms` 책으로 행아웃 온라인 스터디를 합니다.&lt;br /&gt;
* 기본적으로 매주 토요일 오전 11시, 혹은 일요일 오전 11시&lt;br /&gt;
* 참가자 : [[서지혜]], [[최다인]]&lt;br /&gt;
&lt;br /&gt;
* [[http://hothobbang.tistory.com/m/59|공부방법에 대한 좋은 글]]&lt;br /&gt;
== 진행 상황 ==&lt;br /&gt;
=== 1주차 (2017/03/26 일) ===&lt;br /&gt;
* 1장을 읽음&lt;br /&gt;
* 22장 그래프로 바로 건너뜀. 22장 읽기&lt;br /&gt;
* 그래프 기본 문제 풀어보기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7576|토마토]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7579|토마토(난이도 UP)]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/2606|바이러스]]&lt;br /&gt;
* 연습문제 하나씩 풀어와서 공유&lt;br /&gt;
** [[서지혜]] : 22.5-2&lt;br /&gt;
** [[최다인]] : 22.3-13&lt;br /&gt;
=== 2주차 (2017/04/02 일) ===&lt;br /&gt;
* 22장을 읽음&lt;br /&gt;
* Topological sort와 Strongly connected components의 pseudocode 설명이 부실하다...&lt;br /&gt;
* 연습문제 3-13의 단일 연결에 대한 이야기&lt;br /&gt;
* 23장 읽어오기&lt;br /&gt;
* 최소 신장 트리 기본 문제 + 못 푼 문제 풀어오기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1922|네트워크 연결]]&lt;br /&gt;
* 연습문제 풀고 싶은 것 하나씩 풀어와서 공유&lt;br /&gt;
=== 3주차 (2017/04/09 일) ===&lt;br /&gt;
* 23장을 읽음&lt;br /&gt;
=== 4주차 (2017/04/15 토) ===&lt;br /&gt;
* 24장 읽기로 했음&lt;br /&gt;
** 이번주 스터디 쉽니다&lt;br /&gt;
* 다음주: 24장 각자 읽고, 25장 하기로 함.&lt;br /&gt;
=== 5주차 (2017/04/23 일) ===&lt;br /&gt;
* 25장 읽음&lt;br /&gt;
* 다음주: 26.3장 까지 읽기, 문제 풀기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1014|컨닝]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/3640|제독]]&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27915</id>
		<title>AlgorithmStudy/CLRS</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27915"/>
		<updated>2017-04-23T13:40:46Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
* `Introduction to Algorithms` 책으로 행아웃 온라인 스터디를 합니다.&lt;br /&gt;
* 기본적으로 매주 토요일 오전 11시, 혹은 일요일 오전 11시&lt;br /&gt;
* 참가자 : [[서지혜]], [[최다인]]&lt;br /&gt;
&lt;br /&gt;
* [[http://hothobbang.tistory.com/m/59|공부방법에 대한 좋은 글]]&lt;br /&gt;
== 진행 상황 ==&lt;br /&gt;
=== 1주차 (2017/03/26 일) ===&lt;br /&gt;
* 1장을 읽음&lt;br /&gt;
* 22장 그래프로 바로 건너뜀. 22장 읽기&lt;br /&gt;
* 그래프 기본 문제 풀어보기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7576|토마토]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7579|토마토(난이도 UP)]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/2606|바이러스]]&lt;br /&gt;
* 연습문제 하나씩 풀어와서 공유&lt;br /&gt;
** [[서지혜]] : 22.5-2&lt;br /&gt;
** [[최다인]] : 22.3-13&lt;br /&gt;
=== 2주차 (2017/04/02 일) ===&lt;br /&gt;
* 22장을 읽음&lt;br /&gt;
* Topological sort와 Strongly connected components의 pseudocode 설명이 부실하다...&lt;br /&gt;
* 연습문제 3-13의 단일 연결에 대한 이야기&lt;br /&gt;
* 23장 읽어오기&lt;br /&gt;
* 최소 신장 트리 기본 문제 + 못 푼 문제 풀어오기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1922|네트워크 연결]]&lt;br /&gt;
* 연습문제 풀고 싶은 것 하나씩 풀어와서 공유&lt;br /&gt;
=== 3주차 (2017/04/09 일) ===&lt;br /&gt;
* 23장을 읽음&lt;br /&gt;
=== 4주차 (2017/04/15 토) ===&lt;br /&gt;
* 24장 읽기로 했음&lt;br /&gt;
** 이번주 스터디 쉽니다&lt;br /&gt;
* 다음주: 24장 각자 읽고, 25장 하기로 함.&lt;br /&gt;
=== 5주차 (2017/04/23 일) ===&lt;br /&gt;
* 25장 읽음&lt;br /&gt;
* 다음주: 26.3장 까지 읽기, 문제 풀기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1014|컨닝]]&lt;br /&gt;
** https://www.acmicpc.net/problem/3640&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27914</id>
		<title>AlgorithmStudy/CLRS</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27914"/>
		<updated>2017-04-23T13:40:25Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
* `Introduction to Algorithms` 책으로 행아웃 온라인 스터디를 합니다.&lt;br /&gt;
* 기본적으로 매주 토요일 오전 11시, 혹은 일요일 오전 11시&lt;br /&gt;
* 참가자 : [[서지혜]], [[최다인]]&lt;br /&gt;
&lt;br /&gt;
* [[http://hothobbang.tistory.com/m/59|공부방법에 대한 좋은 글]]&lt;br /&gt;
== 진행 상황 ==&lt;br /&gt;
=== 1주차 (2017/03/26 일) ===&lt;br /&gt;
* 1장을 읽음&lt;br /&gt;
* 22장 그래프로 바로 건너뜀. 22장 읽기&lt;br /&gt;
* 그래프 기본 문제 풀어보기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7576|토마토]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7579|토마토(난이도 UP)]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/2606|바이러스]]&lt;br /&gt;
* 연습문제 하나씩 풀어와서 공유&lt;br /&gt;
** [[서지혜]] : 22.5-2&lt;br /&gt;
** [[최다인]] : 22.3-13&lt;br /&gt;
=== 2주차 (2017/04/02 일) ===&lt;br /&gt;
* 22장을 읽음&lt;br /&gt;
* Topological sort와 Strongly connected components의 pseudocode 설명이 부실하다...&lt;br /&gt;
* 연습문제 3-13의 단일 연결에 대한 이야기&lt;br /&gt;
* 23장 읽어오기&lt;br /&gt;
* 최소 신장 트리 기본 문제 + 못 푼 문제 풀어오기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1922|네트워크 연결]]&lt;br /&gt;
* 연습문제 풀고 싶은 것 하나씩 풀어와서 공유&lt;br /&gt;
=== 3주차 (2017/04/09 일) ===&lt;br /&gt;
* 23장을 읽음&lt;br /&gt;
=== 4주차 (2017/04/15 토) ===&lt;br /&gt;
* 24장 읽기로 했음&lt;br /&gt;
** 이번주 스터디 쉽니다&lt;br /&gt;
* 다음주: 24장 각자 읽고, 25장 하기로 함.&lt;br /&gt;
=== 5주차 (2017/04/23 일) ===&lt;br /&gt;
* 25장 읽음&lt;br /&gt;
* 다음주: 26.3장 까지 읽기, 문제 풀기&lt;br /&gt;
** [[컨닝 https://www.acmicpc.net/problem/1014]]&lt;br /&gt;
** https://www.acmicpc.net/problem/3640&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27913</id>
		<title>AlgorithmStudy/CLRS</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/CLRS&amp;diff=27913"/>
		<updated>2017-04-23T13:40:01Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
== 개요 ==&lt;br /&gt;
* `Introduction to Algorithms` 책으로 행아웃 온라인 스터디를 합니다.&lt;br /&gt;
* 기본적으로 매주 토요일 오전 11시, 혹은 일요일 오전 11시&lt;br /&gt;
* 참가자 : [[서지혜]], [[최다인]]&lt;br /&gt;
&lt;br /&gt;
* [[http://hothobbang.tistory.com/m/59|공부방법에 대한 좋은 글]]&lt;br /&gt;
== 진행 상황 ==&lt;br /&gt;
=== 1주차 (2017/03/26 일) ===&lt;br /&gt;
* 1장을 읽음&lt;br /&gt;
* 22장 그래프로 바로 건너뜀. 22장 읽기&lt;br /&gt;
* 그래프 기본 문제 풀어보기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7576|토마토]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/7579|토마토(난이도 UP)]]&lt;br /&gt;
** [[https://www.acmicpc.net/problem/2606|바이러스]]&lt;br /&gt;
* 연습문제 하나씩 풀어와서 공유&lt;br /&gt;
** [[서지혜]] : 22.5-2&lt;br /&gt;
** [[최다인]] : 22.3-13&lt;br /&gt;
=== 2주차 (2017/04/02 일) ===&lt;br /&gt;
* 22장을 읽음&lt;br /&gt;
* Topological sort와 Strongly connected components의 pseudocode 설명이 부실하다...&lt;br /&gt;
* 연습문제 3-13의 단일 연결에 대한 이야기&lt;br /&gt;
* 23장 읽어오기&lt;br /&gt;
* 최소 신장 트리 기본 문제 + 못 푼 문제 풀어오기&lt;br /&gt;
** [[https://www.acmicpc.net/problem/1922|네트워크 연결]]&lt;br /&gt;
* 연습문제 풀고 싶은 것 하나씩 풀어와서 공유&lt;br /&gt;
=== 3주차 (2017/04/09 일) ===&lt;br /&gt;
* 23장을 읽음&lt;br /&gt;
=== 4주차 (2017/04/15 토) ===&lt;br /&gt;
* 24장 읽기로 했음&lt;br /&gt;
** 이번주 스터디 쉽니다&lt;br /&gt;
* 다음주: 24장 각자 읽고, 25장 하기로 함.&lt;br /&gt;
=== 5주차 (2017/04/23 일) ===&lt;br /&gt;
* 25장 읽음&lt;br /&gt;
* 다음주: 26.3장 까지 읽기, 문제 풀기&lt;br /&gt;
** https://www.acmicpc.net/problem/1014&lt;br /&gt;
** https://www.acmicpc.net/problem/3640&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/2017/Week15&amp;diff=27877</id>
		<title>AlgorithmStudy/2017/Week15</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/2017/Week15&amp;diff=27877"/>
		<updated>2017-04-15T19:59:19Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[AlgorithmStudy/2017|Algorithm Study/2017]]&lt;br /&gt;
&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
= 공지사항 =&lt;br /&gt;
&lt;br /&gt;
* 이번 주차엔 중간고사(20~26일) 대비와 겹쳐 보다 자율적인 일정 관리를 위해 중간점검 항목을 없앴습니다.&lt;br /&gt;
&lt;br /&gt;
= 문제집 =&lt;br /&gt;
&lt;br /&gt;
* 모든 문제를 읽어본 후에 어떤 문제를 시도할 것인지 표에 기록하고 시도했다면 성공/실패 여부를 적어주시기 바랍니다.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| &lt;br /&gt;
| [https://www.acmicpc.net/problem/12438 새로운 달력] * GCJ Korea 2012 QR&lt;br /&gt;
| [https://www.acmicpc.net/problem/12440 계산식 복원] * GCJ Korea 2012 QR&lt;br /&gt;
| [https://www.acmicpc.net/problem/12338 Lawnmower] * GCJ 2013 QR&lt;br /&gt;
|-&lt;br /&gt;
| 정진경&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 김성민&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 김상렬&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 최다인&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 서지혜&lt;br /&gt;
| AC&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 박인서&lt;br /&gt;
| colspan=&amp;quot;3&amp;quot; | 시험기간 관계로 이번주 쉽니다.&lt;br /&gt;
|-&lt;br /&gt;
| 이민석&lt;br /&gt;
| 100%에서 WA는 머냐&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 한재민&lt;br /&gt;
| colspan=&amp;quot;3&amp;quot; | 시험기간 관계로 이번주 쉽니다.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= 도우미 (Advisor) =&lt;br /&gt;
&lt;br /&gt;
* 도우미가 아니더라도 해당 문제를 미리 풀었다면 도우미 지정이 가능합니다.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| 정진경&lt;br /&gt;
| 슬랙/카톡 연락&lt;br /&gt;
|-&lt;br /&gt;
| 박인서&lt;br /&gt;
| 슬랙이나 카톡으로 연락 주시면 됩니다.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= 진행상황 공유 및 후기 (4월 15일 23시 59분까지) =&lt;br /&gt;
&lt;br /&gt;
* 진행 내용: 문제집 중 어떤 문제를 풀기를 시도했고, 현재까지의 객관적인 경과를 쓰시면 됩니다. 문제를 이해하였는지, 제출해서 시간초과/틀렸습니다 등.&lt;br /&gt;
* 자가 진단: 못 풀었을 경우, 풀지 못한 원인에 대해 스스로 생각해 봅니다. 풀었을 경우 더 나은 방법에 대한 생각 등을 적어주세요.&lt;br /&gt;
* 도우미: 시도한 문제를 못 풀었을 경우엔 반드시 도우미를 지정하세요.&lt;br /&gt;
** [https://search.naver.com/search.naver?sm=tab_hty.top&amp;amp;where=nexearch&amp;amp;oquery=%EC%82%AC%EB%8B%A4%EB%A6%AC&amp;amp;ie=utf8&amp;amp;query=%EC%82%AC%EB%8B%A4%EB%A6%AC%EA%B2%8C%EC%9E%84 혹시 결정 장애라면]&lt;br /&gt;
&lt;br /&gt;
= 메모장 =&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 접읍시다&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/2017/Week15&amp;diff=27876</id>
		<title>AlgorithmStudy/2017/Week15</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/2017/Week15&amp;diff=27876"/>
		<updated>2017-04-15T17:28:40Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;[[AlgorithmStudy/2017|Algorithm Study/2017]]&lt;br /&gt;
&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
= 공지사항 =&lt;br /&gt;
&lt;br /&gt;
* 이번 주차엔 중간고사(20~26일) 대비와 겹쳐 보다 자율적인 일정 관리를 위해 중간점검 항목을 없앴습니다.&lt;br /&gt;
&lt;br /&gt;
= 문제집 =&lt;br /&gt;
&lt;br /&gt;
* 모든 문제를 읽어본 후에 어떤 문제를 시도할 것인지 표에 기록하고 시도했다면 성공/실패 여부를 적어주시기 바랍니다.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| &lt;br /&gt;
| [https://www.acmicpc.net/problem/12438 새로운 달력] * GCJ Korea 2012 QR&lt;br /&gt;
| [https://www.acmicpc.net/problem/12440 계산식 복원] * GCJ Korea 2012 QR&lt;br /&gt;
| [https://www.acmicpc.net/problem/12338 Lawnmower] * GCJ 2013 QR&lt;br /&gt;
|-&lt;br /&gt;
| 정진경&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 김성민&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 김상렬&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 최다인&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 서지혜&lt;br /&gt;
| WA 아 뭔데&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 박인서&lt;br /&gt;
| colspan=&amp;quot;3&amp;quot; | 시험기간 관계로 이번주 쉽니다.&lt;br /&gt;
|-&lt;br /&gt;
| 이민석&lt;br /&gt;
| 100%에서 WA는 머냐&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 한재민&lt;br /&gt;
| colspan=&amp;quot;3&amp;quot; | 시험기간 관계로 이번주 쉽니다.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= 도우미 (Advisor) =&lt;br /&gt;
&lt;br /&gt;
* 도우미가 아니더라도 해당 문제를 미리 풀었다면 도우미 지정이 가능합니다.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| 정진경&lt;br /&gt;
| 슬랙/카톡 연락&lt;br /&gt;
|-&lt;br /&gt;
| 박인서&lt;br /&gt;
| 슬랙이나 카톡으로 연락 주시면 됩니다.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= 진행상황 공유 및 후기 (4월 15일 23시 59분까지) =&lt;br /&gt;
&lt;br /&gt;
* 진행 내용: 문제집 중 어떤 문제를 풀기를 시도했고, 현재까지의 객관적인 경과를 쓰시면 됩니다. 문제를 이해하였는지, 제출해서 시간초과/틀렸습니다 등.&lt;br /&gt;
* 자가 진단: 못 풀었을 경우, 풀지 못한 원인에 대해 스스로 생각해 봅니다. 풀었을 경우 더 나은 방법에 대한 생각 등을 적어주세요.&lt;br /&gt;
* 도우미: 시도한 문제를 못 풀었을 경우엔 반드시 도우미를 지정하세요.&lt;br /&gt;
** [https://search.naver.com/search.naver?sm=tab_hty.top&amp;amp;where=nexearch&amp;amp;oquery=%EC%82%AC%EB%8B%A4%EB%A6%AC&amp;amp;ie=utf8&amp;amp;query=%EC%82%AC%EB%8B%A4%EB%A6%AC%EA%B2%8C%EC%9E%84 혹시 결정 장애라면]&lt;br /&gt;
&lt;br /&gt;
= 메모장 =&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
 접읍시다&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/2017/Week12&amp;diff=27749</id>
		<title>AlgorithmStudy/2017/Week12</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=AlgorithmStudy/2017/Week12&amp;diff=27749"/>
		<updated>2017-03-23T10:59:32Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
&lt;br /&gt;
= 문제집 =&lt;br /&gt;
&lt;br /&gt;
# [https://www.acmicpc.net/problem/2110 공유기 설치]&lt;br /&gt;
# [https://www.acmicpc.net/problem/3640 제독]&lt;br /&gt;
# [https://www.acmicpc.net/problem/1783 병든 나이트]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
= 도우미 (Advisor) =&lt;br /&gt;
&lt;br /&gt;
* 일단 3학년 이상, 프로그래밍 대회 유경험자는 모두 넣었습니다. 부담스러운 분은 셀프로 삭제해 주시고 본인이 도우미로 지정되었는데 해당 문제에 관해 도움을 줄 수 없다고 판단되시면 다른 도우미를 대신 지정해주시면 됩니다.&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| 정진경&lt;br /&gt;
| 슬랙/카톡 연락&lt;br /&gt;
|-&lt;br /&gt;
| 박인서&lt;br /&gt;
| 슬랙이나 카톡으로 연락 주시면 됩니다.&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= 1차 중간 점검 (3월 21일 23시 59분까지) =&lt;br /&gt;
&lt;br /&gt;
* 진행 내용: 문제집 중 어떤 문제를 풀기를 시도했고, 현재까지의 객관적인 경과를 쓰시면 됩니다. 문제를 이해하였는지, 제출해서 시간초과/틀렸습니다 등.&lt;br /&gt;
* 자가 진단: 못 풀었을 경우, 풀지 못한 원인에 대해 스스로 생각해 봅니다. 풀었을 경우 더 나은 방법에 대한 생각 등을 적어주세요.&lt;br /&gt;
* 도우미: 시도한 문제를 못 풀었을 경우엔 반드시 도우미를 지정하세요.&lt;br /&gt;
** [https://search.naver.com/search.naver?sm=tab_hty.top&amp;amp;where=nexearch&amp;amp;oquery=%EC%82%AC%EB%8B%A4%EB%A6%AC&amp;amp;ie=utf8&amp;amp;query=%EC%82%AC%EB%8B%A4%EB%A6%AC%EA%B2%8C%EC%9E%84 혹시 결정 장애라면]&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| &lt;br /&gt;
| 진행 내용&lt;br /&gt;
| 자가 진단&lt;br /&gt;
| 도우미&lt;br /&gt;
|-&lt;br /&gt;
| 정진경&lt;br /&gt;
| 제독 WA&lt;br /&gt;
| 구현 문제로 추측, 팀노트 구현 가져와서 해보고 그래도 WA면 알고리즘이 정해를 내는지 다시 찾아야 함 =&amp;gt; 팀노트 구현 가져오니 통과, 모델링엔 문제가 없어보이고 구현한 알고리즘 디버깅 필요&lt;br /&gt;
| 이민석&lt;br /&gt;
|-&lt;br /&gt;
| 김성민&lt;br /&gt;
| 1번 푸는 중&lt;br /&gt;
| 문제는 이해 했음. 처음엔 공유기 개수만큼 C분할탐색해야하는거 아니냐.. 하고 생각해 봤는데 굳이 C분할탐색 할 필요 없이 binary search를 응용한 문제라고 생각함, 2번은 그래프길래 읽자마자 포기.&lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 김상렬&lt;br /&gt;
| 1번 못품 2번 못품 3번 품&lt;br /&gt;
| 3. test case 분류--&amp;gt; 그림 그려서 푼다 말이 오른쪽 으로밖에 이동안하니 갈 수 있는데 한계가 있음. 1번은 이진탐색 힌트를 얻었으나, 풀지못함, 2번은 아직 풀단계가 아닌것 같습니다.&lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 최다인&lt;br /&gt;
| 1번 통과&lt;br /&gt;
| 알고리즘 문제를 너무 오랜만에 봐서 푸는 방법을 한동안 못 떠올리고 뻘짓함. 더 나은 방법은 파이썬을 포기하는 것이라고 생각 :P 시간이 없어 다른 문제는 아직 보지 못했음&lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 서지혜&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 박인서&lt;br /&gt;
| 1번 통과 &amp;amp; 2번 푸는 중&lt;br /&gt;
| 1. 처음에 아이디어를 떠올리기 힘들었지만 문제 분류의 도움을 좀 받음(아이디어 자체가 중요한 문제라 풀이는 못 씀) 2. 네트워크 플로우 임을 깨달음. ~~하지만 나는 풀줄 모르자나 아마 안될거야..~~&lt;br /&gt;
| 2번 정진경, 3번 김상렬&lt;br /&gt;
|-&lt;br /&gt;
| 최기수&lt;br /&gt;
| 1번 문제 도전&lt;br /&gt;
| 문제의 요구 사항이 무엇인지 이해하였으나, 접근하는 방법을 모르겠음...&lt;br /&gt;
| 정진경&lt;br /&gt;
|-&lt;br /&gt;
| 이민석&lt;br /&gt;
| 1번 통과(C++) / 2번 통과 (C++) / 3번 통과 (C++, Rust)&lt;br /&gt;
| 2번 모델링 맞은 줄 알았는데 문제 다시 읽어보니 조건을 빼먹음&lt;br /&gt;
| 정진경&lt;br /&gt;
|}&lt;br /&gt;
= 2차 중간 점검 (3월 23일 23시 59분까지) =&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| &lt;br /&gt;
| 진행 내용&lt;br /&gt;
| 자가 진단&lt;br /&gt;
| 도우미&lt;br /&gt;
|-&lt;br /&gt;
| 정진경&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|}&lt;br /&gt;
|| 김성민 ||1번 푸는중, 3번 Solved&amp;amp;&lt;br /&gt;
~~2번 포기~~||이런 문제 좋아해서 그런지  이런거 나오면 금방 푸는 거 같아요..|| ||&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| 김상렬&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 최다인&lt;br /&gt;
| 3번 통과&lt;br /&gt;
| 이번에는 문제를 완전히 잘못 이해해서 뻘짓함. 나이트가 도달할 수 있는 모든 칸이라고 생각했는데, 멈추지 않고 한번에 이동할 때 갈 수 있는 최대 칸수였음. 문제 이해하고 바로 풀었음&lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 서지혜&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 박인서&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 최기수&lt;br /&gt;
| 1번 중도 포기&lt;br /&gt;
| 알고리즘을 도우미를 통해 이해했으나 코딩 실력이 부족&lt;br /&gt;
| 정진경&lt;br /&gt;
|-&lt;br /&gt;
| 이민석&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|}&lt;br /&gt;
= 최종 결과 =&lt;br /&gt;
&lt;br /&gt;
* 후기에 공유하고 싶은 내용, 느낀점, 불만사항, 개선 방법 등을 자유롭게 적어 더 나은 다음 주를 보냅시다~&lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| &lt;br /&gt;
| 진행 내용&lt;br /&gt;
| 자가 진단&lt;br /&gt;
| 도우미&lt;br /&gt;
| 후기&lt;br /&gt;
|-&lt;br /&gt;
| 정진경&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 김성민&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 김상렬&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 최다인&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 서지혜&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 박인서&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|-&lt;br /&gt;
| 최기수&lt;br /&gt;
| 1번 중도 포기&lt;br /&gt;
| 실력이 부족&lt;br /&gt;
| 정진경&lt;br /&gt;
| 스터디 활동을 하기엔 아직 이르다고 판단 ㅠㅠ&lt;br /&gt;
|-&lt;br /&gt;
| 이민석&lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
| &lt;br /&gt;
|}&lt;br /&gt;
= 메모장 =&lt;br /&gt;
&lt;br /&gt;
텍스트 기반으로 수정을 하니 테이블을 쓰면 내용을 길게 적기 어렵군요... 자유롭게 작성할 수 있으면서 진행 상황이 한 눈에 보이는 형식이 없을지&lt;br /&gt;
&lt;br /&gt;
아이고 제가 내용을 길게적어서 그런지 테이블 모양이 매우 못생겨졌네요;; - [[최다인]]&lt;br /&gt;
* 전체 내용에 대해서 테이블 모양으로 다 만들 필요는 없다고 봅니다. - [[박인서]]&lt;br /&gt;
* 그러면 자가 진단이나 후기정도는 테이블 밖으로 빼는 게 어떨까요? - [[최다인]]&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EC%83%88%EC%8B%B9%EA%B5%90%EC%8B%A4/2011&amp;diff=52459</id>
		<title>새싹교실/2011</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EC%83%88%EC%8B%B9%EA%B5%90%EC%8B%A4/2011&amp;diff=52459"/>
		<updated>2017-02-09T14:44:54Z</updated>

		<summary type="html">&lt;p&gt;14.32.111.6: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;__TOC__&lt;br /&gt;
== 2011년 새싹교실 ==&lt;br /&gt;
* [[새싹교실/2011/A+]]&lt;br /&gt;
* [[새싹교실/2011/AmazingC]]&lt;br /&gt;
* [[새싹교실/2011/GGT]]&lt;br /&gt;
* [[새싹교실/2011/Noname]]&lt;br /&gt;
* [[새싹교실/2011/Pixar]]&lt;br /&gt;
* [[새싹교실/2011/Temp]]&lt;br /&gt;
* [[새싹교실/2011/學高]]&lt;br /&gt;
* [[새싹교실/2011/데미안반]]&lt;br /&gt;
* [[새싹교실/2011/무전취식]]&lt;br /&gt;
* [[새싹교실/2011/쉬운것같지만쉬운반]]&lt;br /&gt;
* [[새싹교실/2011/씨언어발전]]&lt;br /&gt;
* [[새싹교실/2011/앞반뒷반그리고App반]]&lt;br /&gt;
&lt;br /&gt;
== 새싹 교실 가이드라인 ==&lt;br /&gt;
새싹 교실 가이드라인은 더 나은 새싹 교실을 만들기 위해 ZeroPage가 추천하는 방법입니다. 강제는 아니지만 선생님들께서는 그 의미를 생각해보시고 따라주시면 감사하겠습니다.&lt;br /&gt;
=== 진행 시간 ===&lt;br /&gt;
너무 짧은 시간동안 진행한다면 가르쳐줄 수 있는 것이 적습니다. 그러니&lt;br /&gt;
* 한 주에 두시간 이상 진행해주세요.&lt;br /&gt;
* 총 8회 이상 진행해주세요.&lt;br /&gt;
=== 테스트 ===&lt;br /&gt;
내가 짠 코드를 직접 출력을 통해 확인하는 것은 분명 매력적인 일입니다. 그러나 처음 익힌 코딩 습관은 버리기 매우 어렵습니다. 많은 학생들이 처음 프로그래밍을 배우며 printf 함수를 사용하여 코드를 검증하는 습관을 들입니다. 그 때문에 상당수의 졸업할때까지 테스트보다는 직접 눈으로 확인하는 것을 선호합니다. 그런데 작성한 코드가 잘 돌아가는지 알기 위해 직접 눈으로 확인해야만 하는 것은 매우 많은 문제가 있습니다.(이것에 대해서 더 적자면 정말 길어질테니 일단 이 페이지엔 적지 않겠습니다.)&lt;br /&gt;
* 학교 수업에서 사용하기 때문에 printf 함수를 소개할 필요는 있습니다. 그러나 새싹교실에서 실습한 코드들을 검증하기 위해 매번 printf를 사용하는 것은 권장하지 않습니다.&lt;br /&gt;
* 출력을 통한 확인보다는 테스트를 통한 확인을 유도해주세요.&lt;br /&gt;
* 테스트는 [http://winapi.co.kr/clec/reference/assert.gif assert]함수를 통해 간단히 만들 수 있습니다.&lt;br /&gt;
** 혹시 assert를 사용할 줄 모르신다면, 그리고 테스트라는 게 무엇인지 잘 감이 안 오신다면 [[김수경]]에게 도움을 요청해주세요.&lt;br /&gt;
=== 피드백 ===&lt;br /&gt;
피드백은 귀찮게 하기 위한 관리의 수단이 아니라 각 반이 매 시간마다 더 즐겁고 유익한 수업을 진행하고, 다음 해 새싹 교실에서도 이를 참고하기 위한 기록입니다.&lt;br /&gt;
* &#039;&#039;좋았어요.&#039;&#039;만 적힌 피드백을 보고 더 좋은 수업을 준비하기는 어렵겠죠? 의미있는 피드백을 남기기 위해&lt;br /&gt;
** 학생들에게 피드백이 가지는 의미를 설명해주세요.&lt;br /&gt;
** 학생들에게 F4(ThreeFs + FutureActionPlan) 혹은 FiveFs에 대해 설명하고 이를 지키도록 해주세요.&lt;br /&gt;
** 학생들이 피드백 작성을 어려워한다면 선생님이 구체적인 질문을 던지는 것도 좋습니다.&lt;br /&gt;
=== 위키 ===&lt;br /&gt;
위키는 새내기들에게 낯선 환경이지만 사용하기 전혀 어렵지 않고, 내용이 쌓이면 게시판에 비해 내용들을 찾아보기 훨씬 좋답니다.&lt;br /&gt;
* 위키를 사용하기 어렵게 느낀다면 그건 익숙하지 않기 때문이예요. 함께 써보는 시간을 마련해주세요.&lt;br /&gt;
* 새내기들이 위키 문법을 처음부터 익히기는 어렵습니다. 선생님이 먼저 위키에 내용을 작성하여 학생들이 참고할 수 있도록 해주세요.&lt;br /&gt;
* 위키를 더 유용하게 사용하기 위해 지켜야할 것들이 있습니다. 각 반 페이지를 만드실때 페이지 이름은 &#039;&#039;&#039;새싹교실/2011/반이름&#039;&#039;&#039; 으로 만들어주세요.&lt;br /&gt;
** / 아래에 쓰면 하위 페이지라는 의미가 있습니다. 즉, &#039;&#039;새싹교실/2011&#039;&#039;은 &#039;&#039;새싹교실&#039;&#039;페이지의 하위 페이지이고 &#039;&#039;새싹교실/2011/새싹반&#039;&#039;은 &#039;&#039;새싹교실/2011&#039;&#039;페이지의 하위 페이지가 됩니다. &lt;br /&gt;
** 각 반 이름 아래에 날짜별로 하위페이지를 만드셔도 좋고 반 페이지에 제목으로 날짜를 분류하여 작성하셔도 좋습니다.&lt;br /&gt;
** 위키 페이지를 어떻게 써야할지 모르겠다면 위키의 다른 스터디 페이지를 참고하시거나 [[김수경]]에게 물어보세요.&lt;br /&gt;
* 위키 문법 연습은 WikiSandBox에 해주세요.&lt;br /&gt;
=== 회고 ===&lt;br /&gt;
회고를 통해 매번 그날 했던 것을 돌아봄으로써 배운 것을 더 잘 기억할 수 있고 학생들이 피드백을 작성하기도 더 수월해집니다.&lt;br /&gt;
* 매 수업이 끝나면 3~5분정도 간단히 그 날 수업을 돌아보는 시간을 가져주세요.&lt;br /&gt;
* 거창한 회고를 하실 필요는 없습니다.&lt;br /&gt;
** 간단히 돌아가면서 선생님과 학생들이 그날의 소감을 말하는 정도만 되어도 괜찮습니다.&lt;br /&gt;
** 하지만 더 좋은 회고를 진행하고 싶으시다면 책장에 있는 애자일회고 책을 읽어보시거나 [[김수경]], [[서지혜]]에게 도움을 요청해주세요.&lt;br /&gt;
== 새싹 교실 지원 방침 ==&lt;br /&gt;
새싹 교실 지원 방침의 기본은 &#039;&#039;&#039;새싹 교실을 열심히 진행하고, ZeroPage의 발전에 기여한다면 그에 대해 지원&#039;&#039;&#039;하는 것입니다.&lt;br /&gt;
* 위키 가꾸기 : 가장 쉬운 기여 방법&lt;br /&gt;
** 피드백&lt;br /&gt;
** 가이드라인의 피드백 항목을 참조하여 작성해주시면 됩니다.&lt;br /&gt;
** 올해 새싹 교실 지원은 기본적으로 피드백 개수를 세어 지원합니다.&lt;br /&gt;
** 공부한 내용 정리하기&lt;br /&gt;
** 각 반 페이지에 매번 공부한 내용을 정리해주세요. 일정 기간 별로 가장 잘 정리한 반을 뽑아 지원합니다.&lt;br /&gt;
* 다른 방법도 환영합니다.&lt;br /&gt;
** 예를 들어 새싹 교실을 통해 배운 것들을 ZeroPage 정모에서 공유하셔도 좋습니다.&lt;br /&gt;
** 혹은 새싹 교실에서 진행한 프로젝트의 소스를 공개하는 것도 좋습니다.&lt;br /&gt;
** 새싹 교실을 진행하면서 영상으로 찍어 공유하는 것도 좋습니다.&lt;br /&gt;
** 이 외에도 여러분이 생각하실 수 있는 새롭고 재밌는 방법으로 새싹 교실의 내용을 공유해주세요.&lt;br /&gt;
* 게임에서 우승하기&lt;br /&gt;
** 모든 반 새싹 선생님과 학생들이 한자리에 모이는 날을 마련할 예정입니다. 이 날 진행한 게임에서 우승한 반은 추가적인 지원을 받으실 수 있습니다.&lt;br /&gt;
== 참고용 커리큘럼 ==&lt;br /&gt;
* 손봉수 교수님 수업의 커리큘럼을 기반으로 작성되었습니다.&lt;br /&gt;
* 커리큘럼 가이드라인은 참고 및 예시용으로 사용하며, 평가와는 무관합니다.&lt;br /&gt;
* 모든 선생님이 따를 필요는 없습니다. 막막하신 선생님들은 참고해주세요:)&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| 주차&lt;br /&gt;
| 내용&lt;br /&gt;
|-&lt;br /&gt;
| 1&lt;br /&gt;
| 홍보 및 반 편성&lt;br /&gt;
|-&lt;br /&gt;
| rowspan=&amp;quot;2&amp;quot; | 2&lt;br /&gt;
| 강사 및 학생 사전 미팅(시간 최종 조정)&lt;br /&gt;
|-&lt;br /&gt;
| 반 편성&lt;br /&gt;
|}&lt;br /&gt;
||3||computer science의 기초적인 내용:&lt;br /&gt;
 각 파트의 역할, program의 실행원리, software(layer 활용), complier와 interpreter 역할&lt;br /&gt;
 프로그래밍 단계(code 작성-&amp;gt;compile-&amp;gt;link-&amp;gt;generating .exe file)&lt;br /&gt;
C언어의 기초적인 내용:&lt;br /&gt;
 장점과 단점에 대해서 설명(이론적인 내용)&lt;br /&gt;
 header file, source file, resource file 개념 설명&lt;br /&gt;
 stdio.h: printf, scanf function&lt;br /&gt;
 Hello world 작성&lt;br /&gt;
 constant/variable-&amp;gt;variable: 논리회로와 연관시키면 은근히 편함&lt;br /&gt;
 redirection||&lt;br /&gt;
||4||operator:&lt;br /&gt;
 arithmetic operator&lt;br /&gt;
 bitwise operator&lt;br /&gt;
 logical operator, relational operator&lt;br /&gt;
 type casting&lt;br /&gt;
 shorthand operator, operator precedence&lt;br /&gt;
 increment/decrement, postfix/prefix&lt;br /&gt;
control structure:&lt;br /&gt;
 if-else&lt;br /&gt;
 switch&lt;br /&gt;
 while, do-while, for: 서로 바꿔서 써보도록(피드백 필수)&lt;br /&gt;
 nested roop&lt;br /&gt;
 infinite loop, break/continue&lt;br /&gt;
 dangle else problem&lt;br /&gt;
&lt;br /&gt;
과제: 별찍기||&lt;br /&gt;
||5||function&lt;br /&gt;
variable: global, local, static, stack overflow도 설명&lt;br /&gt;
void type&lt;br /&gt;
call by value mechanism||&lt;br /&gt;
||6||실습:&lt;br /&gt;
달력을 하던 sorting을 하던 알아서 할 것&lt;br /&gt;
가이드라인 추후제공||&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| 7&lt;br /&gt;
| 중간고사 대비&lt;br /&gt;
|-&lt;br /&gt;
| 8&lt;br /&gt;
| 중간고사&lt;br /&gt;
|}&lt;br /&gt;
||9||array:&lt;br /&gt;
 declaration&lt;br /&gt;
 initialization&lt;br /&gt;
 multi-dimension array||&lt;br /&gt;
||10||pointer:&lt;br /&gt;
 개념&lt;br /&gt;
 operator&lt;br /&gt;
 address&lt;br /&gt;
 pointer arithmetic&lt;br /&gt;
array와 pointer의 관계||&lt;br /&gt;
||11||dynamic allocation:&lt;br /&gt;
string:&lt;br /&gt;
 string.h&lt;br /&gt;
 string I/O||&lt;br /&gt;
||12||structure&lt;br /&gt;
typedef&lt;br /&gt;
enum&lt;br /&gt;
file I/O&lt;br /&gt;
macro, pre-processor||&lt;br /&gt;
||13||&amp;lt;|2&amp;gt;실습(강사재량)&lt;br /&gt;
가이드라인 추후제공||&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| 14&lt;br /&gt;
|}&lt;br /&gt;
||15||기말고사 대비|&lt;br /&gt;
|-&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
|-&lt;br /&gt;
| 16&lt;br /&gt;
| 기말고사&lt;br /&gt;
|}&lt;br /&gt;
----&lt;br /&gt;
* 더 좋은 커리큘럼을 만들기 위한 의견도 환영합니다. 커리큘럼을 개선할 아이디어가 있으시면 아래에 적어주세요.&lt;br /&gt;
----&lt;br /&gt;
[[새싹교실]]&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>14.32.111.6</name></author>
	</entry>
</feed>