<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="en">
	<id>https://mediawiki.zeropage.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=165.194.17.165</id>
	<title>ZeroWiki - User contributions [en]</title>
	<link rel="self" type="application/atom+xml" href="https://mediawiki.zeropage.org/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=165.194.17.165"/>
	<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php/Special:Contributions/165.194.17.165"/>
	<updated>2026-05-14T19:30:39Z</updated>
	<subtitle>User contributions</subtitle>
	<generator>MediaWiki 1.39.8</generator>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49013</id>
		<title>데블스캠프2017/DeepLearningDay</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49013"/>
		<updated>2017-07-01T08:52:34Z</updated>

		<summary type="html">&lt;p&gt;165.194.17.165: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;이스트소프트 AI Plus Lab&lt;br /&gt;
* 컴퓨터 비전&lt;br /&gt;
* 자연어 처리&lt;br /&gt;
* 악성코드 탐지&lt;br /&gt;
* 금융시장 예측&lt;br /&gt;
&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
== 딥러닝의 원리 ==&lt;br /&gt;
=== 딥러닝의 이해 ===&lt;br /&gt;
* 인공지능&lt;br /&gt;
** 사람만큼이나 사람보다 똑똑한 기계&lt;br /&gt;
* 머신러닝 &lt;br /&gt;
** 더 많은 데이터를 더 빠르게 처리할 수 있지만, 처리 알고리즘은 사람이 만들어야 한다&lt;br /&gt;
** 사람보다 똑똑한 기계를 만들기 위해 사람(생물)이 학습하는 방법을 모델링&lt;br /&gt;
** 데이터로부터 경험적, 귀납적으로 만들어낸 알고리즘에 의해 추론&lt;br /&gt;
** feature와 label&lt;br /&gt;
** 더 좋은 feature들을 추출할 수 있다면, 더욱 쉽게 분류할 수 있다&lt;br /&gt;
** feature engineering &lt;br /&gt;
*** 딥러닝 이전 머신러닝에서 반드시 수행되어야하는 작업&lt;br /&gt;
*** 사람이 정답을 더 잘 찾기 위한 특징을 찾아내고 (-&amp;gt;도메인 전문가) &lt;br /&gt;
*** 사람이 데이터에서 그런 특징을 식별하고 추출하는 알고리즘을 설계하는 것 (-&amp;gt;알고리즘)&lt;br /&gt;
** 단일 층으로 분류가 불가능하다면, 분류가 가능할 때까지 공간을 변형시키면 된다&lt;br /&gt;
** 즉, 다중 층을 사용하면 된다&lt;br /&gt;
* 딥러닝&lt;br /&gt;
** 여러 층을 통째로 학습시키면(차원이 늘어나면) &lt;br /&gt;
** 사람이 찾을 수 있는 특징보다 더 좋은 특징을 찾아 분류를 할 수 있다&lt;br /&gt;
** 이 특징은 사람이 이해하기에는 어려울 수 있다&lt;br /&gt;
** 더 어렵고 복잡한 문제를 해결할 수 있는데 이를 수용력이라 함&lt;br /&gt;
** 딥러닝은 머신러닝 더 넓은 수용력을 가지는 학습 방법&lt;br /&gt;
** 학습할 데이터가 충분히 많아야 더욱 정확하고 복잡한 특징을 추출할 수 있게 된다&lt;br /&gt;
* 딥러닝에 필요한 것들&lt;br /&gt;
** 선형대수학&lt;br /&gt;
** 확률과 통계&lt;br /&gt;
** 다변수 미적분&lt;br /&gt;
** 알고리즘, 최적화&lt;br /&gt;
** 기타 등등&lt;br /&gt;
** 정보이론(엔트로피 ..)&lt;br /&gt;
** 기타 수학적 이론들&lt;br /&gt;
 === 딥러닝의 원리 1 - similarity ===&lt;br /&gt;
** 딥러닝에서는 스스로 좋은 feature를 찾아가기 때문에 최대한 손실이 없는 데이터를 사용하는 것이 유리하다&lt;br /&gt;
** 벡터의 유사도를 나타내는 방법&lt;br /&gt;
** 유클리드 거리(두 벡터의 차이)&lt;br /&gt;
** 코사인 유사도(두 벡터의 내적)&lt;br /&gt;
** 하지만 유사한 데이터라고 해서 유사한 벡터인 것은 아니다&lt;br /&gt;
** 이를 해결하는 것이 머신러닝의 핵심적인 목교&lt;br /&gt;
** 입력층 벡터를 유사하게 -&amp;gt; 입력 데이터의 모델링&lt;br /&gt;
** 마지막 은닉 층 벡터를 유사하게 -&amp;gt; 네트워크 모델링&lt;br /&gt;
** Supervised Learning&lt;br /&gt;
** 분류의 정답인 함수 값을 통해 어떤 데이터들이 분류가 같아야 하고, 분류가 달라야하는지&lt;br /&gt;
** 기준을 가르치는 것&lt;br /&gt;
** 뉴럴 네트워크를 학습한다는 것&lt;br /&gt;
** 학습한다는 것은 정답과의 오차를 줄이는 방향으로 모델 파라미터를 수정해 나가는 것&lt;br /&gt;
** 학습이 잘 된 후에는 어떤 입력에 대해 강하게 반응하려면 가중치가 그 벡터와 유사해 진다&lt;br /&gt;
** 모델링&lt;br /&gt;
** 더 적은 데이터를 가지고 더 적합한 학습을 시킬 수 있도록하는 것이 모델링&lt;br /&gt;
** ex) CNN&lt;br /&gt;
** 응용&lt;br /&gt;
** 변종 악성코드의 탐지와 분류&lt;br /&gt;
** 악성코드의 유사도&lt;br /&gt;
*** 메타데이터가 유사하다&lt;br /&gt;
*** 파일 구조와 내용이 유사&lt;br /&gt;
*** 코드 패턴, 행위 패턴이 유사&lt;br /&gt;
*** 사용하는 API가 유사&lt;br /&gt;
*** 개발자의 습관이 유사&lt;br /&gt;
*** 노리는 대상이나 취약점이 유사&lt;br /&gt;
*** 통신하는 대상이나 패킷이 유사&lt;br /&gt;
*** 압축, 난독화, 암호화, 패키지 방식이 유사&lt;br /&gt;
*** 악성 여부?&lt;br /&gt;
*** 정말 모든 악성 코드를 유사한가?&lt;br /&gt;
*** 정말 모든 정상 코드는 유사한가?&lt;br /&gt;
*** 정말 정상코드와 악성코드는 유사하지 않은가?&lt;br /&gt;
*** 탐지명&lt;br /&gt;
*** 보안 분석가들이 오랜 기간동안 악성코드를 분류&lt;br /&gt;
*** 유사한 악성코드를 같은 탐지명으로 분류할까?&lt;br /&gt;
*** 같은 탐지명으로 분류된 악성코드들은 유사할까?&lt;br /&gt;
*** 하나의 악성코드는 하나의 탐지명으로만 분류할 수 있을까?&lt;br /&gt;
*** 탐지명을 label로 학습을 시킨다 하더라도&lt;br /&gt;
** 신종 악성코드의 탐지와 분류&lt;br /&gt;
*** 학습한 데이터의 유사한 악성코드가 없다&lt;br /&gt;
*** 학습한 훈련 데이터에 같은 분류로 분류된 악성코드가 없다&lt;br /&gt;
=== 딥러닝의 원리 2 - Probability ===&lt;br /&gt;
* 변별 모델 &lt;br /&gt;
** classification, regression&lt;br /&gt;
** 입력 데이터 x가 주어질 때, 간단한 응답 y를 결정&lt;br /&gt;
** 조건부 확률을 사용&lt;br /&gt;
** 조건부 확률의 함정&lt;br /&gt;
** 조건부 활률 뒤집기&lt;br /&gt;
*** 수 많은 경우의 수가 존재하므로 직접 계산하는 것은 굉장히 어렵다&lt;br /&gt;
*** 결합 확률&lt;br /&gt;
*** x,y가 동시에 일어날 확률&lt;br /&gt;
*** 베이즈 정리에 의해 계산     &lt;br /&gt;
*** 결합 확률을 계산&lt;br /&gt;
* 생성모델&lt;br /&gt;
** y라는 속성을 같는 그럴듯한 x를 생성&lt;br /&gt;
** 딥러닝을 활용하면 y뿐만아니라 대량의 x로부터 숨겨진 특징 z를 찾아낼 수 있다&lt;br /&gt;
** 가르친 적 없는 x를 생성&lt;br /&gt;
** 딥러닝 기반 생성모델 VAEs, GANs, Auto-Regressive model, DBNs, RBMs&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== ~~(딥)~~러닝 ==&lt;br /&gt;
[http://cs231n.stanford.edu/]&lt;br /&gt;
 이미지 분류기 &lt;br /&gt;
* 이미지 데이터를 각 픽셀에 대해 rgb로 표현 &lt;br /&gt;
* 다른 시각에서, 다른 성질을 가진 같은 물체를 어떻게 같은 label로 분류할 것인가&lt;br /&gt;
* hard-code로는 분류기를 만드는 것이 불가능함&lt;br /&gt;
=== K Nearest Neighbor Classifier ===&lt;br /&gt;
** 이미지를 학습하여 저장&lt;br /&gt;
** 새로 들어온 이미지를 차이가 가장 작은 값을 통해 분류&lt;br /&gt;
** 비교하는 방법&lt;br /&gt;
** 픽셀값으 절대값 거리 계산&lt;br /&gt;
** 이를 distance로 사용&lt;br /&gt;
** 분류 시간이 linear하게 증가&lt;br /&gt;
** CNN 모델에서는 학습시간은 증가하지만, 분류가 빠름&lt;br /&gt;
** hyper parameter&lt;br /&gt;
** L1 distance vs L2 distance &lt;br /&gt;
** K?&lt;br /&gt;
** 실험적으로 hyper parameter를 결정&lt;br /&gt;
*** 학습 데이터 중 일부를 validation data로 사용&lt;br /&gt;
*** cross-validation&lt;br /&gt;
=== Linear Classification ===&lt;br /&gt;
* 선을 그어 분류하는 방법&lt;br /&gt;
* non-parametric approach&lt;br /&gt;
** KNN 등&lt;br /&gt;
* parametric approach &lt;br /&gt;
** 선의 기울기를 사용하여&lt;br /&gt;
** f(x, W) -&amp;gt; 분류&lt;br /&gt;
** score function f =  W*x + b = 점수의 벡터&lt;br /&gt;
* loss function&lt;br /&gt;
** 학습 데이터에 대해 unhappiness를 측정하는 함수&lt;br /&gt;
** loss function을 작게 만드는 과정 -&amp;gt; optimization&lt;br /&gt;
** ex) SVM loss function&lt;br /&gt;
* softmax classifier&lt;br /&gt;
** score = 특정 분류에 대한 normalized 되지 않은 조건부 확률 &lt;br /&gt;
** loss function = -log(normalized score)&lt;br /&gt;
* optimization&lt;br /&gt;
** loss function을 최소화하는 W을 구하는 과정&lt;br /&gt;
** random search &lt;br /&gt;
** W를 랜덤하게 생성하여 찾은 W 중 가장 loss 값을 가지는 W를 선택&lt;br /&gt;
** 낮은 정확도&lt;br /&gt;
** gradient descent&lt;br /&gt;
** 가능한 작은 h를 사용하여 gradient를 측정&lt;br /&gt;
** loss가 작아지는 방향으로 점진적으로 접근  &lt;br /&gt;
&lt;br /&gt;
== 고래 등에 태운 텐서플로 ==&lt;br /&gt;
== 딥러닝과 자연어 처리 == &lt;br /&gt;
== 인공지능의 미래 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>165.194.17.165</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49012</id>
		<title>데블스캠프2017/DeepLearningDay</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49012"/>
		<updated>2017-07-01T08:51:08Z</updated>

		<summary type="html">&lt;p&gt;165.194.17.165: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;이스트소프트 AI Plus Lab&lt;br /&gt;
* 컴퓨터 비전&lt;br /&gt;
* 자연어 처리&lt;br /&gt;
* 악성코드 탐지&lt;br /&gt;
* 금융시장 예측&lt;br /&gt;
&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
== 딥러닝의 원리 ==&lt;br /&gt;
=== 딥러닝의 이해 ===&lt;br /&gt;
* 인공지능&lt;br /&gt;
** 사람만큼이나 사람보다 똑똑한 기계&lt;br /&gt;
* 머신러닝 &lt;br /&gt;
** 더 많은 데이터를 더 빠르게 처리할 수 있지만, 처리 알고리즘은 사람이 만들어야 한다&lt;br /&gt;
** 사람보다 똑똑한 기계를 만들기 위해 사람(생물)이 학습하는 방법을 모델링&lt;br /&gt;
** 데이터로부터 경험적, 귀납적으로 만들어낸 알고리즘에 의해 추론&lt;br /&gt;
** feature와 label&lt;br /&gt;
** 더 좋은 feature들을 추출할 수 있다면, 더욱 쉽게 분류할 수 있다&lt;br /&gt;
** feature engineering &lt;br /&gt;
*** 딥러닝 이전 머신러닝에서 반드시 수행되어야하는 작업&lt;br /&gt;
*** 사람이 정답을 더 잘 찾기 위한 특징을 찾아내고 (-&amp;gt;도메인 전문가) &lt;br /&gt;
*** 사람이 데이터에서 그런 특징을 식별하고 추출하는 알고리즘을 설계하는 것 (-&amp;gt;알고리즘)&lt;br /&gt;
** 단일 층으로 분류가 불가능하다면, 분류가 가능할 때까지 공간을 변형시키면 된다&lt;br /&gt;
** 즉, 다중 층을 사용하면 된다&lt;br /&gt;
* 딥러닝&lt;br /&gt;
** 여러 층을 통째로 학습시키면(차원이 늘어나면) &lt;br /&gt;
** 사람이 찾을 수 있는 특징보다 더 좋은 특징을 찾아 분류를 할 수 있다&lt;br /&gt;
** 이 특징은 사람이 이해하기에는 어려울 수 있다&lt;br /&gt;
** 더 어렵고 복잡한 문제를 해결할 수 있는데 이를 수용력이라 함&lt;br /&gt;
** 딥러닝은 머신러닝 더 넓은 수용력을 가지는 학습 방법&lt;br /&gt;
** 학습할 데이터가 충분히 많아야 더욱 정확하고 복잡한 특징을 추출할 수 있게 된다&lt;br /&gt;
* 딥러닝에 필요한 것들&lt;br /&gt;
** 선형대수학&lt;br /&gt;
** 확률과 통계&lt;br /&gt;
** 다변수 미적분&lt;br /&gt;
** 알고리즘, 최적화&lt;br /&gt;
** 기타 등등&lt;br /&gt;
** 정보이론(엔트로피 ..)&lt;br /&gt;
** 기타 수학적 이론들&lt;br /&gt;
 === 딥러닝의 원리 1 - similarity ===&lt;br /&gt;
** 딥러닝에서는 스스로 좋은 feature를 찾아가기 때문에 최대한 손실이 없는 데이터를 사용하는 것이 유리하다&lt;br /&gt;
** 벡터의 유사도를 나타내는 방법&lt;br /&gt;
** 유클리드 거리(두 벡터의 차이)&lt;br /&gt;
** 코사인 유사도(두 벡터의 내적)&lt;br /&gt;
** 하지만 유사한 데이터라고 해서 유사한 벡터인 것은 아니다&lt;br /&gt;
** 이를 해결하는 것이 머신러닝의 핵심적인 목교&lt;br /&gt;
** 입력층 벡터를 유사하게 -&amp;gt; 입력 데이터의 모델링&lt;br /&gt;
** 마지막 은닉 층 벡터를 유사하게 -&amp;gt; 네트워크 모델링&lt;br /&gt;
** Supervised Learning&lt;br /&gt;
** 분류의 정답인 함수 값을 통해 어떤 데이터들이 분류가 같아야 하고, 분류가 달라야하는지&lt;br /&gt;
** 기준을 가르치는 것&lt;br /&gt;
** 뉴럴 네트워크를 학습한다는 것&lt;br /&gt;
** 학습한다는 것은 정답과의 오차를 줄이는 방향으로 모델 파라미터를 수정해 나가는 것&lt;br /&gt;
** 학습이 잘 된 후에는 어떤 입력에 대해 강하게 반응하려면 가중치가 그 벡터와 유사해 진다&lt;br /&gt;
** 모델링&lt;br /&gt;
** 더 적은 데이터를 가지고 더 적합한 학습을 시킬 수 있도록하는 것이 모델링&lt;br /&gt;
** ex) CNN&lt;br /&gt;
** 응용&lt;br /&gt;
** 변종 악성코드의 탐지와 분류&lt;br /&gt;
** 악성코드의 유사도&lt;br /&gt;
*** 메타데이터가 유사하다&lt;br /&gt;
*** 파일 구조와 내용이 유사&lt;br /&gt;
*** 코드 패턴, 행위 패턴이 유사&lt;br /&gt;
*** 사용하는 API가 유사&lt;br /&gt;
*** 개발자의 습관이 유사&lt;br /&gt;
*** 노리는 대상이나 취약점이 유사&lt;br /&gt;
*** 통신하는 대상이나 패킷이 유사&lt;br /&gt;
*** 압축, 난독화, 암호화, 패키지 방식이 유사&lt;br /&gt;
*** 악성 여부?&lt;br /&gt;
*** 정말 모든 악성 코드를 유사한가?&lt;br /&gt;
*** 정말 모든 정상 코드는 유사한가?&lt;br /&gt;
*** 정말 정상코드와 악성코드는 유사하지 않은가?&lt;br /&gt;
*** 탐지명&lt;br /&gt;
*** 보안 분석가들이 오랜 기간동안 악성코드를 분류&lt;br /&gt;
*** 유사한 악성코드를 같은 탐지명으로 분류할까?&lt;br /&gt;
*** 같은 탐지명으로 분류된 악성코드들은 유사할까?&lt;br /&gt;
*** 하나의 악성코드는 하나의 탐지명으로만 분류할 수 있을까?&lt;br /&gt;
*** 탐지명을 label로 학습을 시킨다 하더라도&lt;br /&gt;
** 신종 악성코드의 탐지와 분류&lt;br /&gt;
*** 학습한 데이터의 유사한 악성코드가 없다&lt;br /&gt;
*** 학습한 훈련 데이터에 같은 분류로 분류된 악성코드가 없다&lt;br /&gt;
=== 딥러닝의 원리 2 - Probability ===&lt;br /&gt;
* 변별 모델 &lt;br /&gt;
** classification, regression&lt;br /&gt;
** 입력 데이터 x가 주어질 때, 간단한 응답 y를 결정&lt;br /&gt;
** 조건부 확률을 사용&lt;br /&gt;
** 조건부 확률의 함정&lt;br /&gt;
** 조건부 활률 뒤집기&lt;br /&gt;
*** 수 많은 경우의 수가 존재하므로 직접 계산하는 것은 굉장히 어렵다&lt;br /&gt;
*** 결합 확률&lt;br /&gt;
*** x,y가 동시에 일어날 확률&lt;br /&gt;
*** 베이즈 정리에 의해 계산     &lt;br /&gt;
*** 결합 확률을 계산&lt;br /&gt;
* 생성모델&lt;br /&gt;
** y라는 속성을 같는 그럴듯한 x를 생성&lt;br /&gt;
** 딥러닝을 활용하면 y뿐만아니라 대량의 x로부터 숨겨진 특징 z를 찾아낼 수 있다&lt;br /&gt;
** 가르친 적 없는 x를 생성&lt;br /&gt;
** 딥러닝 기반 생성모델 VAEs, GANs, Auto-Regressive model, DBNs, RBMs&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== ~~(딥)~~러닝 ==&lt;br /&gt;
[http://cs231n.stanford.edu/]&lt;br /&gt;
=== 이미지 분류기 ===&lt;br /&gt;
* 이미지 데이터를 각 픽셀에 대해 rgb로 표현 &lt;br /&gt;
* 다른 시각에서, 다른 성질을 가진 같은 물체를 어떻게 같은 label로 분류할 것인가&lt;br /&gt;
* hard-code로는 분류기를 만드는 것이 불가능함&lt;br /&gt;
==== K Nearest Neighbor Classifier ====&lt;br /&gt;
** 이미지를 학습하여 저장&lt;br /&gt;
** 새로 들어온 이미지를 차이가 가장 작은 값을 통해 분류&lt;br /&gt;
** 비교하는 방법&lt;br /&gt;
** 픽셀값으 절대값 거리 계산&lt;br /&gt;
** 이를 distance로 사용&lt;br /&gt;
** 분류 시간이 linear하게 증가&lt;br /&gt;
** CNN 모델에서는 학습시간은 증가하지만, 분류가 빠름&lt;br /&gt;
** hyper parameter&lt;br /&gt;
** L1 distance vs L2 distance &lt;br /&gt;
** K?&lt;br /&gt;
** 실험적으로 hyper parameter를 결정&lt;br /&gt;
*** 학습 데이터 중 일부를 validation data로 사용&lt;br /&gt;
*** cross-validation&lt;br /&gt;
==== Linear Classification ====&lt;br /&gt;
* 선을 그어 분류하는 방법&lt;br /&gt;
* non-parametric approach&lt;br /&gt;
** KNN 등&lt;br /&gt;
* parametric approach &lt;br /&gt;
** 선의 기울기를 사용하여&lt;br /&gt;
** f(x, W) -&amp;gt; 분류&lt;br /&gt;
** score function f =  W*x + b = 점수의 벡터&lt;br /&gt;
* loss function&lt;br /&gt;
** 학습 데이터에 대해 unhappiness를 측정하는 함수&lt;br /&gt;
** loss function을 작게 만드는 과정 -&amp;gt; optimization&lt;br /&gt;
** ex) SVM loss function&lt;br /&gt;
* softmax classifier&lt;br /&gt;
** score = 특정 분류에 대한 normalized 되지 않은 조건부 확률 &lt;br /&gt;
** loss function = -log(normalized score)&lt;br /&gt;
* optimization&lt;br /&gt;
** loss function을 최소화하는 W을 구하는 과정&lt;br /&gt;
** random search &lt;br /&gt;
** W를 랜덤하게 생성하여 찾은 W 중 가장 loss 값을 가지는 W를 선택&lt;br /&gt;
** 낮은 정확도&lt;br /&gt;
** gradient descent&lt;br /&gt;
** 가능한 작은 h를 사용하여 gradient를 측정&lt;br /&gt;
** loss가 작아지는 방향으로 점진적으로 접근  &lt;br /&gt;
&lt;br /&gt;
== 고래 등에 태운 텐서플로 ==&lt;br /&gt;
== 딥러닝과 자연어 처리 == &lt;br /&gt;
== 인공지능의 미래 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>165.194.17.165</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49011</id>
		<title>데블스캠프2017/DeepLearningDay</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49011"/>
		<updated>2017-07-01T08:50:51Z</updated>

		<summary type="html">&lt;p&gt;165.194.17.165: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;이스트소프트 AI Plus Lab&lt;br /&gt;
* 컴퓨터 비전&lt;br /&gt;
* 자연어 처리&lt;br /&gt;
* 악성코드 탐지&lt;br /&gt;
* 금융시장 예측&lt;br /&gt;
&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
== 딥러닝의 원리 ==&lt;br /&gt;
=== 딥러닝의 이해 ===&lt;br /&gt;
* 인공지능&lt;br /&gt;
** 사람만큼이나 사람보다 똑똑한 기계&lt;br /&gt;
* 머신러닝 &lt;br /&gt;
** 더 많은 데이터를 더 빠르게 처리할 수 있지만, 처리 알고리즘은 사람이 만들어야 한다&lt;br /&gt;
** 사람보다 똑똑한 기계를 만들기 위해 사람(생물)이 학습하는 방법을 모델링&lt;br /&gt;
** 데이터로부터 경험적, 귀납적으로 만들어낸 알고리즘에 의해 추론&lt;br /&gt;
** feature와 label&lt;br /&gt;
** 더 좋은 feature들을 추출할 수 있다면, 더욱 쉽게 분류할 수 있다&lt;br /&gt;
** feature engineering &lt;br /&gt;
*** 딥러닝 이전 머신러닝에서 반드시 수행되어야하는 작업&lt;br /&gt;
*** 사람이 정답을 더 잘 찾기 위한 특징을 찾아내고 (-&amp;gt;도메인 전문가) &lt;br /&gt;
*** 사람이 데이터에서 그런 특징을 식별하고 추출하는 알고리즘을 설계하는 것 (-&amp;gt;알고리즘)&lt;br /&gt;
** 단일 층으로 분류가 불가능하다면, 분류가 가능할 때까지 공간을 변형시키면 된다&lt;br /&gt;
** 즉, 다중 층을 사용하면 된다&lt;br /&gt;
* 딥러닝&lt;br /&gt;
** 여러 층을 통째로 학습시키면(차원이 늘어나면) &lt;br /&gt;
** 사람이 찾을 수 있는 특징보다 더 좋은 특징을 찾아 분류를 할 수 있다&lt;br /&gt;
** 이 특징은 사람이 이해하기에는 어려울 수 있다&lt;br /&gt;
** 더 어렵고 복잡한 문제를 해결할 수 있는데 이를 수용력이라 함&lt;br /&gt;
** 딥러닝은 머신러닝 더 넓은 수용력을 가지는 학습 방법&lt;br /&gt;
** 학습할 데이터가 충분히 많아야 더욱 정확하고 복잡한 특징을 추출할 수 있게 된다&lt;br /&gt;
* 딥러닝에 필요한 것들&lt;br /&gt;
** 선형대수학&lt;br /&gt;
** 확률과 통계&lt;br /&gt;
** 다변수 미적분&lt;br /&gt;
** 알고리즘, 최적화&lt;br /&gt;
** 기타 등등&lt;br /&gt;
** 정보이론(엔트로피 ..)&lt;br /&gt;
** 기타 수학적 이론들&lt;br /&gt;
 === 딥러닝의 원리 1 - similarity ===&lt;br /&gt;
** 딥러닝에서는 스스로 좋은 feature를 찾아가기 때문에 최대한 손실이 없는 데이터를 사용하는 것이 유리하다&lt;br /&gt;
** 벡터의 유사도를 나타내는 방법&lt;br /&gt;
** 유클리드 거리(두 벡터의 차이)&lt;br /&gt;
** 코사인 유사도(두 벡터의 내적)&lt;br /&gt;
** 하지만 유사한 데이터라고 해서 유사한 벡터인 것은 아니다&lt;br /&gt;
** 이를 해결하는 것이 머신러닝의 핵심적인 목교&lt;br /&gt;
** 입력층 벡터를 유사하게 -&amp;gt; 입력 데이터의 모델링&lt;br /&gt;
** 마지막 은닉 층 벡터를 유사하게 -&amp;gt; 네트워크 모델링&lt;br /&gt;
** Supervised Learning&lt;br /&gt;
** 분류의 정답인 함수 값을 통해 어떤 데이터들이 분류가 같아야 하고, 분류가 달라야하는지&lt;br /&gt;
** 기준을 가르치는 것&lt;br /&gt;
** 뉴럴 네트워크를 학습한다는 것&lt;br /&gt;
** 학습한다는 것은 정답과의 오차를 줄이는 방향으로 모델 파라미터를 수정해 나가는 것&lt;br /&gt;
** 학습이 잘 된 후에는 어떤 입력에 대해 강하게 반응하려면 가중치가 그 벡터와 유사해 진다&lt;br /&gt;
** 모델링&lt;br /&gt;
** 더 적은 데이터를 가지고 더 적합한 학습을 시킬 수 있도록하는 것이 모델링&lt;br /&gt;
** ex) CNN&lt;br /&gt;
** 응용&lt;br /&gt;
** 변종 악성코드의 탐지와 분류&lt;br /&gt;
** 악성코드의 유사도&lt;br /&gt;
*** 메타데이터가 유사하다&lt;br /&gt;
*** 파일 구조와 내용이 유사&lt;br /&gt;
*** 코드 패턴, 행위 패턴이 유사&lt;br /&gt;
*** 사용하는 API가 유사&lt;br /&gt;
*** 개발자의 습관이 유사&lt;br /&gt;
*** 노리는 대상이나 취약점이 유사&lt;br /&gt;
*** 통신하는 대상이나 패킷이 유사&lt;br /&gt;
*** 압축, 난독화, 암호화, 패키지 방식이 유사&lt;br /&gt;
*** 악성 여부?&lt;br /&gt;
*** 정말 모든 악성 코드를 유사한가?&lt;br /&gt;
*** 정말 모든 정상 코드는 유사한가?&lt;br /&gt;
*** 정말 정상코드와 악성코드는 유사하지 않은가?&lt;br /&gt;
*** 탐지명&lt;br /&gt;
*** 보안 분석가들이 오랜 기간동안 악성코드를 분류&lt;br /&gt;
*** 유사한 악성코드를 같은 탐지명으로 분류할까?&lt;br /&gt;
*** 같은 탐지명으로 분류된 악성코드들은 유사할까?&lt;br /&gt;
*** 하나의 악성코드는 하나의 탐지명으로만 분류할 수 있을까?&lt;br /&gt;
*** 탐지명을 label로 학습을 시킨다 하더라도&lt;br /&gt;
** 신종 악성코드의 탐지와 분류&lt;br /&gt;
*** 학습한 데이터의 유사한 악성코드가 없다&lt;br /&gt;
*** 학습한 훈련 데이터에 같은 분류로 분류된 악성코드가 없다&lt;br /&gt;
=== 딥러닝의 원리 2 - Probability ===&lt;br /&gt;
* 변별 모델 &lt;br /&gt;
** classification, regression&lt;br /&gt;
** 입력 데이터 x가 주어질 때, 간단한 응답 y를 결정&lt;br /&gt;
** 조건부 확률을 사용&lt;br /&gt;
** 조건부 확률의 함정&lt;br /&gt;
** 조건부 활률 뒤집기&lt;br /&gt;
*** 수 많은 경우의 수가 존재하므로 직접 계산하는 것은 굉장히 어렵다&lt;br /&gt;
*** 결합 확률&lt;br /&gt;
*** x,y가 동시에 일어날 확률&lt;br /&gt;
*** 베이즈 정리에 의해 계산     &lt;br /&gt;
*** 결합 확률을 계산&lt;br /&gt;
* 생성모델&lt;br /&gt;
** y라는 속성을 같는 그럴듯한 x를 생성&lt;br /&gt;
** 딥러닝을 활용하면 y뿐만아니라 대량의 x로부터 숨겨진 특징 z를 찾아낼 수 있다&lt;br /&gt;
** 가르친 적 없는 x를 생성&lt;br /&gt;
** 딥러닝 기반 생성모델 VAEs, GANs, Auto-Regressive model, DBNs, RBMs&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== ~~(딥)~~러닝 ==&lt;br /&gt;
[http://cs231n.stanford.edu/]&lt;br /&gt;
=== 이미지 분류기 ===&lt;br /&gt;
* 이미지 데이터를 각 픽셀에 대해 rgb로 표현 &lt;br /&gt;
* 다른 시각에서, 다른 성질을 가진 같은 물체를 어떻게 같은 label로 분류할 것인가&lt;br /&gt;
* hard-code로는 분류기를 만드는 것이 불가능함&lt;br /&gt;
==== K Nearest Neighbor Classifier ====&lt;br /&gt;
** 이미지를 학습하여 저장&lt;br /&gt;
** 새로 들어온 이미지를 차이가 가장 작은 값을 통해 분류&lt;br /&gt;
** 비교하는 방법&lt;br /&gt;
** 픽셀값으 절대값 거리 계산&lt;br /&gt;
** 이를 distance로 사용&lt;br /&gt;
** 분류 시간이 linear하게 증가&lt;br /&gt;
** CNN 모델에서는 학습시간은 증가하지만, 분류가 빠름&lt;br /&gt;
** hyper parameter&lt;br /&gt;
** L1 distance vs L2 distance &lt;br /&gt;
** K?&lt;br /&gt;
** 실험적으로 hyper parameter를 결정&lt;br /&gt;
*** 학습 데이터 중 일부를 validation data로 사용&lt;br /&gt;
*** cross-validation&lt;br /&gt;
==== Linear Classification ====&lt;br /&gt;
* 선을 그어 분류하는 방법&lt;br /&gt;
* non-parametric approach&lt;br /&gt;
** KNN 등&lt;br /&gt;
* parametric approach &lt;br /&gt;
** 선의 기울기를 사용하여&lt;br /&gt;
** f(x, W) -&amp;gt; 분류&lt;br /&gt;
** score function f =  W*x + b = 점수의 벡터&lt;br /&gt;
* loss function&lt;br /&gt;
** 학습 데이터에 대해 unhappiness를 측정하는 함수&lt;br /&gt;
** loss function을 작게 만드는 과정 -&amp;gt; optimization&lt;br /&gt;
** ex) SVM loss function&lt;br /&gt;
* softmax classifier&lt;br /&gt;
** score = 특정 분류에 대한 normalized 되지 않은 조건부 확률 &lt;br /&gt;
** loss function = -log(normalized score)&lt;br /&gt;
* optimization&lt;br /&gt;
** loss function을 최소화하는 W을 구하는 과정&lt;br /&gt;
** random search &lt;br /&gt;
** W를 랜덤하게 생성하여 찾은 W 중 가장 loss 값을 가지는 W를 선택&lt;br /&gt;
** 낮은 정확도&lt;br /&gt;
** gradient descent&lt;br /&gt;
** 가능한 작은 h를 사용하여 gradient를 측정&lt;br /&gt;
** loss가 작아지는 방향으로 점진적으로 접근  &lt;br /&gt;
== 고래 등에 태운 텐서플로 ==&lt;br /&gt;
== 딥러닝과 자연어 처리 == &lt;br /&gt;
== 인공지능의 미래 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>165.194.17.165</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49009</id>
		<title>데블스캠프2017/DeepLearningDay</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49009"/>
		<updated>2017-07-01T07:59:10Z</updated>

		<summary type="html">&lt;p&gt;165.194.17.165: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;이스트소프트 AI Plus Lab&lt;br /&gt;
* 컴퓨터 비전&lt;br /&gt;
* 자연어 처리&lt;br /&gt;
* 악성코드 탐지&lt;br /&gt;
* 금융시장 예측&lt;br /&gt;
&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
== 딥러닝의 원리 ==&lt;br /&gt;
=== 딥러닝의 이해 ===&lt;br /&gt;
* 인공지능&lt;br /&gt;
** 사람만큼이나 사람보다 똑똑한 기계&lt;br /&gt;
* 머신러닝 &lt;br /&gt;
** 더 많은 데이터를 더 빠르게 처리할 수 있지만, 처리 알고리즘은 사람이 만들어야 한다&lt;br /&gt;
** 사람보다 똑똑한 기계를 만들기 위해 사람(생물)이 학습하는 방법을 모델링&lt;br /&gt;
** 데이터로부터 경험적, 귀납적으로 만들어낸 알고리즘에 의해 추론&lt;br /&gt;
** feature와 label&lt;br /&gt;
** 더 좋은 feature들을 추출할 수 있다면, 더욱 쉽게 분류할 수 있다&lt;br /&gt;
** feature engineering &lt;br /&gt;
*** 딥러닝 이전 머신러닝에서 반드시 수행되어야하는 작업&lt;br /&gt;
*** 사람이 정답을 더 잘 찾기 위한 특징을 찾아내고 (-&amp;gt;도메인 전문가) &lt;br /&gt;
*** 사람이 데이터에서 그런 특징을 식별하고 추출하는 알고리즘을 설계하는 것 (-&amp;gt;알고리즘)&lt;br /&gt;
** 단일 층으로 분류가 불가능하다면, 분류가 가능할 때까지 공간을 변형시키면 된다&lt;br /&gt;
** 즉, 다중 층을 사용하면 된다&lt;br /&gt;
* 딥러닝&lt;br /&gt;
** 여러 층을 통째로 학습시키면(차원이 늘어나면) &lt;br /&gt;
** 사람이 찾을 수 있는 특징보다 더 좋은 특징을 찾아 분류를 할 수 있다&lt;br /&gt;
** 이 특징은 사람이 이해하기에는 어려울 수 있다&lt;br /&gt;
** 더 어렵고 복잡한 문제를 해결할 수 있는데 이를 수용력이라 함&lt;br /&gt;
** 딥러닝은 머신러닝 더 넓은 수용력을 가지는 학습 방법&lt;br /&gt;
** 학습할 데이터가 충분히 많아야 더욱 정확하고 복잡한 특징을 추출할 수 있게 된다&lt;br /&gt;
* 딥러닝에 필요한 것들&lt;br /&gt;
** 선형대수학&lt;br /&gt;
** 확률과 통계&lt;br /&gt;
** 다변수 미적분&lt;br /&gt;
** 알고리즘, 최적화&lt;br /&gt;
** 기타 등등&lt;br /&gt;
** 정보이론(엔트로피 ..)&lt;br /&gt;
** 기타 수학적 이론들&lt;br /&gt;
 === 딥러닝의 원리 1 - similarity ===&lt;br /&gt;
** 딥러닝에서는 스스로 좋은 feature를 찾아가기 때문에 최대한 손실이 없는 데이터를 사용하는 것이 유리하다&lt;br /&gt;
** 벡터의 유사도를 나타내는 방법&lt;br /&gt;
** 유클리드 거리(두 벡터의 차이)&lt;br /&gt;
** 코사인 유사도(두 벡터의 내적)&lt;br /&gt;
** 하지만 유사한 데이터라고 해서 유사한 벡터인 것은 아니다&lt;br /&gt;
** 이를 해결하는 것이 머신러닝의 핵심적인 목교&lt;br /&gt;
** 입력층 벡터를 유사하게 -&amp;gt; 입력 데이터의 모델링&lt;br /&gt;
** 마지막 은닉 층 벡터를 유사하게 -&amp;gt; 네트워크 모델링&lt;br /&gt;
** Supervised Learning&lt;br /&gt;
** 분류의 정답인 함수 값을 통해 어떤 데이터들이 분류가 같아야 하고, 분류가 달라야하는지&lt;br /&gt;
** 기준을 가르치는 것&lt;br /&gt;
** 뉴럴 네트워크를 학습한다는 것&lt;br /&gt;
** 학습한다는 것은 정답과의 오차를 줄이는 방향으로 모델 파라미터를 수정해 나가는 것&lt;br /&gt;
** 학습이 잘 된 후에는 어떤 입력에 대해 강하게 반응하려면 가중치가 그 벡터와 유사해 진다&lt;br /&gt;
** 모델링&lt;br /&gt;
** 더 적은 데이터를 가지고 더 적합한 학습을 시킬 수 있도록하는 것이 모델링&lt;br /&gt;
** ex) CNN&lt;br /&gt;
** 응용&lt;br /&gt;
** 변종 악성코드의 탐지와 분류&lt;br /&gt;
** 악성코드의 유사도&lt;br /&gt;
*** 메타데이터가 유사하다&lt;br /&gt;
*** 파일 구조와 내용이 유사&lt;br /&gt;
*** 코드 패턴, 행위 패턴이 유사&lt;br /&gt;
*** 사용하는 API가 유사&lt;br /&gt;
*** 개발자의 습관이 유사&lt;br /&gt;
*** 노리는 대상이나 취약점이 유사&lt;br /&gt;
*** 통신하는 대상이나 패킷이 유사&lt;br /&gt;
*** 압축, 난독화, 암호화, 패키지 방식이 유사&lt;br /&gt;
*** 악성 여부?&lt;br /&gt;
*** 정말 모든 악성 코드를 유사한가?&lt;br /&gt;
*** 정말 모든 정상 코드는 유사한가?&lt;br /&gt;
*** 정말 정상코드와 악성코드는 유사하지 않은가?&lt;br /&gt;
*** 탐지명&lt;br /&gt;
*** 보안 분석가들이 오랜 기간동안 악성코드를 분류&lt;br /&gt;
*** 유사한 악성코드를 같은 탐지명으로 분류할까?&lt;br /&gt;
*** 같은 탐지명으로 분류된 악성코드들은 유사할까?&lt;br /&gt;
*** 하나의 악성코드는 하나의 탐지명으로만 분류할 수 있을까?&lt;br /&gt;
*** 탐지명을 label로 학습을 시킨다 하더라도&lt;br /&gt;
** 신종 악성코드의 탐지와 분류&lt;br /&gt;
*** 학습한 데이터의 유사한 악성코드가 없다&lt;br /&gt;
*** 학습한 훈련 데이터에 같은 분류로 분류된 악성코드가 없다&lt;br /&gt;
=== 딥러닝의 원리 2 - Probability ===&lt;br /&gt;
* 변별 모델 &lt;br /&gt;
** classification, regression&lt;br /&gt;
** 입력 데이터 x가 주어질 때, 간단한 응답 y를 결정&lt;br /&gt;
** 조건부 확률을 사용&lt;br /&gt;
** 조건부 확률의 함정&lt;br /&gt;
** 조건부 활률 뒤집기&lt;br /&gt;
*** 수 많은 경우의 수가 존재하므로 직접 계산하는 것은 굉장히 어렵다&lt;br /&gt;
*** 결합 확률&lt;br /&gt;
*** x,y가 동시에 일어날 확률&lt;br /&gt;
*** 베이즈 정리에 의해 계산     &lt;br /&gt;
*** 결합 확률을 계산&lt;br /&gt;
* 생성모델&lt;br /&gt;
** y라는 속성을 같는 그럴듯한 x를 생성&lt;br /&gt;
** 딥러닝을 활용하면 y뿐만아니라 대량의 x로부터 숨겨진 특징 z를 찾아낼 수 있다&lt;br /&gt;
** 가르친 적 없는 x를 생성&lt;br /&gt;
** 딥러닝 기반 생성모델 VAEs, GANs, Auto-Regressive model, DBNs, RBMs&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== ~~(딥)~~러닝 ==&lt;br /&gt;
[http://cs231n.stanford.edu/]&lt;br /&gt;
=== 이미지 분류기 ===&lt;br /&gt;
* 이미지 데이터를 각 픽셀에 대해 rgb로 표현 &lt;br /&gt;
* 다른 시각에서, 다른 성질을 가진 같은 물체를 어떻게 같은 label로 분류할 것인가&lt;br /&gt;
* hard-code로는 분류기를 만드는 것이 불가능함&lt;br /&gt;
==== K Nearest Neighbor Classifier ====&lt;br /&gt;
** 이미지를 학습하여 저장&lt;br /&gt;
** 새로 들어온 이미지를 차이가 가장 작은 값을 통해 분류&lt;br /&gt;
** 비교하는 방법&lt;br /&gt;
** 픽셀값으 절대값 거리 계산&lt;br /&gt;
** 이를 distance로 사용&lt;br /&gt;
** 분류 시간이 linear하게 증가&lt;br /&gt;
** CNN 모델에서는 학습시간은 증가하지만, 분류가 빠름&lt;br /&gt;
** hyper parameter&lt;br /&gt;
** L1 distance vs L2 distance &lt;br /&gt;
** K?&lt;br /&gt;
** 실험적으로 hyper parameter를 결정&lt;br /&gt;
*** 학습 데이터 중 일부를 validation data로 사용&lt;br /&gt;
*** cross-validation&lt;br /&gt;
==== Linear Classification ====&lt;br /&gt;
  &lt;br /&gt;
   &lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== 고래 등에 태운 텐서플로 ==&lt;br /&gt;
== 딥러닝과 저연어 처리 == &lt;br /&gt;
== 인공지능의 미래 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>165.194.17.165</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49008</id>
		<title>데블스캠프2017/DeepLearningDay</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49008"/>
		<updated>2017-07-01T07:18:19Z</updated>

		<summary type="html">&lt;p&gt;165.194.17.165: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;이스트소프트 AI Plus Lab&lt;br /&gt;
* 컴퓨터 비전&lt;br /&gt;
* 자연어 처리&lt;br /&gt;
* 악성코드 탐지&lt;br /&gt;
* 금융시장 예측&lt;br /&gt;
&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
== 딥러닝의 원리 ==&lt;br /&gt;
=== 딥러닝의 이해 ===&lt;br /&gt;
* 인공지능&lt;br /&gt;
** 사람만큼이나 사람보다 똑똑한 기계&lt;br /&gt;
* 머신러닝 &lt;br /&gt;
** 더 많은 데이터를 더 빠르게 처리할 수 있지만, 처리 알고리즘은 사람이 만들어야 한다&lt;br /&gt;
** 사람보다 똑똑한 기계를 만들기 위해 사람(생물)이 학습하는 방법을 모델링&lt;br /&gt;
** 데이터로부터 경험적, 귀납적으로 만들어낸 알고리즘에 의해 추론&lt;br /&gt;
** feature와 label&lt;br /&gt;
** 더 좋은 feature들을 추출할 수 있다면, 더욱 쉽게 분류할 수 있다&lt;br /&gt;
** feature engineering &lt;br /&gt;
*** 딥러닝 이전 머신러닝에서 반드시 수행되어야하는 작업&lt;br /&gt;
*** 사람이 정답을 더 잘 찾기 위한 특징을 찾아내고 (-&amp;gt;도메인 전문가) &lt;br /&gt;
*** 사람이 데이터에서 그런 특징을 식별하고 추출하는 알고리즘을 설계하는 것 (-&amp;gt;알고리즘)&lt;br /&gt;
** 단일 층으로 분류가 불가능하다면, 분류가 가능할 때까지 공간을 변형시키면 된다&lt;br /&gt;
** 즉, 다중 층을 사용하면 된다&lt;br /&gt;
* 딥러닝&lt;br /&gt;
** 여러 층을 통째로 학습시키면(차원이 늘어나면) &lt;br /&gt;
** 사람이 찾을 수 있는 특징보다 더 좋은 특징을 찾아 분류를 할 수 있다&lt;br /&gt;
** 이 특징은 사람이 이해하기에는 어려울 수 있다&lt;br /&gt;
** 더 어렵고 복잡한 문제를 해결할 수 있는데 이를 수용력이라 함&lt;br /&gt;
** 딥러닝은 머신러닝 더 넓은 수용력을 가지는 학습 방법&lt;br /&gt;
** 학습할 데이터가 충분히 많아야 더욱 정확하고 복잡한 특징을 추출할 수 있게 된다&lt;br /&gt;
* 딥러닝에 필요한 것들&lt;br /&gt;
** 선형대수학&lt;br /&gt;
** 확률과 통계&lt;br /&gt;
** 다변수 미적분&lt;br /&gt;
** 알고리즘, 최적화&lt;br /&gt;
** 기타 등등&lt;br /&gt;
** 정보이론(엔트로피 ..)&lt;br /&gt;
** 기타 수학적 이론들&lt;br /&gt;
 === 딥러닝의 원리 1 - similarity ===&lt;br /&gt;
** 딥러닝에서는 스스로 좋은 feature를 찾아가기 때문에 최대한 손실이 없는 데이터를 사용하는 것이 유리하다&lt;br /&gt;
** 벡터의 유사도를 나타내는 방법&lt;br /&gt;
** 유클리드 거리(두 벡터의 차이)&lt;br /&gt;
** 코사인 유사도(두 벡터의 내적)&lt;br /&gt;
** 하지만 유사한 데이터라고 해서 유사한 벡터인 것은 아니다&lt;br /&gt;
** 이를 해결하는 것이 머신러닝의 핵심적인 목교&lt;br /&gt;
** 입력층 벡터를 유사하게 -&amp;gt; 입력 데이터의 모델링&lt;br /&gt;
** 마지막 은닉 층 벡터를 유사하게 -&amp;gt; 네트워크 모델링&lt;br /&gt;
** Supervised Learning&lt;br /&gt;
** 분류의 정답인 함수 값을 통해 어떤 데이터들이 분류가 같아야 하고, 분류가 달라야하는지&lt;br /&gt;
** 기준을 가르치는 것&lt;br /&gt;
** 뉴럴 네트워크를 학습한다는 것&lt;br /&gt;
** 학습한다는 것은 정답과의 오차를 줄이는 방향으로 모델 파라미터를 수정해 나가는 것&lt;br /&gt;
** 학습이 잘 된 후에는 어떤 입력에 대해 강하게 반응하려면 가중치가 그 벡터와 유사해 진다&lt;br /&gt;
** 모델링&lt;br /&gt;
** 더 적은 데이터를 가지고 더 적합한 학습을 시킬 수 있도록하는 것이 모델링&lt;br /&gt;
** ex) CNN&lt;br /&gt;
** 응용&lt;br /&gt;
** 변종 악성코드의 탐지와 분류&lt;br /&gt;
** 악성코드의 유사도&lt;br /&gt;
*** 메타데이터가 유사하다&lt;br /&gt;
*** 파일 구조와 내용이 유사&lt;br /&gt;
*** 코드 패턴, 행위 패턴이 유사&lt;br /&gt;
*** 사용하는 API가 유사&lt;br /&gt;
*** 개발자의 습관이 유사&lt;br /&gt;
*** 노리는 대상이나 취약점이 유사&lt;br /&gt;
*** 통신하는 대상이나 패킷이 유사&lt;br /&gt;
*** 압축, 난독화, 암호화, 패키지 방식이 유사&lt;br /&gt;
*** 악성 여부?&lt;br /&gt;
*** 정말 모든 악성 코드를 유사한가?&lt;br /&gt;
*** 정말 모든 정상 코드는 유사한가?&lt;br /&gt;
*** 정말 정상코드와 악성코드는 유사하지 않은가?&lt;br /&gt;
*** 탐지명&lt;br /&gt;
*** 보안 분석가들이 오랜 기간동안 악성코드를 분류&lt;br /&gt;
*** 유사한 악성코드를 같은 탐지명으로 분류할까?&lt;br /&gt;
*** 같은 탐지명으로 분류된 악성코드들은 유사할까?&lt;br /&gt;
*** 하나의 악성코드는 하나의 탐지명으로만 분류할 수 있을까?&lt;br /&gt;
*** 탐지명을 label로 학습을 시킨다 하더라도&lt;br /&gt;
** 신종 악성코드의 탐지와 분류&lt;br /&gt;
*** 학습한 데이터의 유사한 악성코드가 없다&lt;br /&gt;
*** 학습한 훈련 데이터에 같은 분류로 분류된 악성코드가 없다&lt;br /&gt;
=== 딥러닝의 원리 2 - Probability ===&lt;br /&gt;
* 변별 모델 &lt;br /&gt;
** classification, regression&lt;br /&gt;
** 입력 데이터 x가 주어질 때, 간단한 응답 y를 결정&lt;br /&gt;
** 조건부 확률을 사용&lt;br /&gt;
** 조건부 확률의 함정&lt;br /&gt;
** 조건부 활률 뒤집기&lt;br /&gt;
*** 수 많은 경우의 수가 존재하므로 직접 계산하는 것은 굉장히 어렵다&lt;br /&gt;
*** 결합 확률&lt;br /&gt;
*** x,y가 동시에 일어날 확률&lt;br /&gt;
*** 베이즈 정리에 의해 계산     &lt;br /&gt;
*** 결합 확률을 계산&lt;br /&gt;
* 생성모델&lt;br /&gt;
** y라는 속성을 같는 그럴듯한 x를 생성&lt;br /&gt;
** 딥러닝을 활용하면 y뿐만아니라 대량의 x로부터 숨겨진 특징 z를 찾아낼 수 있다&lt;br /&gt;
** 가르친 적 없는 x를 생성&lt;br /&gt;
** 딥러닝 기반 생성모델 VAEs, GANs, Auto-Regressive model, DBNs, RBMs&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== ~~(딥)~~러닝 ==&lt;br /&gt;
== 고래 등에 태운 텐서플로 ==&lt;br /&gt;
== 딥러닝과 저연어 처리 == &lt;br /&gt;
== 인공지능의 미래 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>165.194.17.165</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49007</id>
		<title>데블스캠프2017/DeepLearningDay</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49007"/>
		<updated>2017-07-01T07:17:08Z</updated>

		<summary type="html">&lt;p&gt;165.194.17.165: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;이스트소프트 AI Plus Lab&lt;br /&gt;
* 컴퓨터 비전&lt;br /&gt;
* 자연어 처리&lt;br /&gt;
* 악성코드 탐지&lt;br /&gt;
* 금융시장 예측&lt;br /&gt;
&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
== 딥러닝의 원리 ==&lt;br /&gt;
=== 딥러닝의 이해 ===&lt;br /&gt;
* 인공지능&lt;br /&gt;
** 사람만큼이나 사람보다 똑똑한 기계&lt;br /&gt;
* 머신러닝 &lt;br /&gt;
** 더 많은 데이터를 더 빠르게 처리할 수 있지만, 처리 알고리즘은 사람이 만들어야 한다&lt;br /&gt;
** 사람보다 똑똑한 기계를 만들기 위해 사람(생물)이 학습하는 방법을 모델링&lt;br /&gt;
** 데이터로부터 경험적, 귀납적으로 만들어낸 알고리즘에 의해 추론&lt;br /&gt;
** feature와 label&lt;br /&gt;
** 더 좋은 feature들을 추출할 수 있다면, 더욱 쉽게 분류할 수 있다&lt;br /&gt;
** feature engineering &lt;br /&gt;
*** 딥러닝 이전 머신러닝에서 반드시 수행되어야하는 작업&lt;br /&gt;
*** 사람이 정답을 더 잘 찾기 위한 특징을 찾아내고 (-&amp;gt;도메인 전문가) &lt;br /&gt;
*** 사람이 데이터에서 그런 특징을 식별하고 추출하는 알고리즘을 설계하는 것 (-&amp;gt;알고리즘)&lt;br /&gt;
** 단일 층으로 분류가 불가능하다면, 분류가 가능할 때까지 공간을 변형시키면 된다&lt;br /&gt;
** 즉, 다중 층을 사용하면 된다&lt;br /&gt;
* 딥러닝&lt;br /&gt;
** 여러 층을 통째로 학습시키면(차원이 늘어나면) &lt;br /&gt;
** 사람이 찾을 수 있는 특징보다 더 좋은 특징을 찾아 분류를 할 수 있다&lt;br /&gt;
** 이 특징은 사람이 이해하기에는 어려울 수 있다&lt;br /&gt;
** 더 어렵고 복잡한 문제를 해결할 수 있는데 이를 수용력이라 함&lt;br /&gt;
** 딥러닝은 머신러닝 더 넓은 수용력을 가지는 학습 방법&lt;br /&gt;
** 학습할 데이터가 충분히 많아야 더욱 정확하고 복잡한 특징을 추출할 수 있게 된다&lt;br /&gt;
* 딥러닝에 필요한 것들&lt;br /&gt;
** 선형대수학&lt;br /&gt;
** 확률과 통계&lt;br /&gt;
** 다변수 미적분&lt;br /&gt;
** 알고리즘, 최적화&lt;br /&gt;
** 기타 등등&lt;br /&gt;
** 정보이론(엔트로피 ..)&lt;br /&gt;
** 기타 수학적 이론들&lt;br /&gt;
 === 딥러닝의 원리 1 - similarity ===&lt;br /&gt;
** 딥러닝에서는 스스로 좋은 feature를 찾아가기 때문에 최대한 손실이 없는 데이터를 사용하는 것이 유리하다&lt;br /&gt;
** 벡터의 유사도를 나타내는 방법&lt;br /&gt;
** 유클리드 거리(두 벡터의 차이)&lt;br /&gt;
** 코사인 유사도(두 벡터의 내적)&lt;br /&gt;
** 하지만 유사한 데이터라고 해서 유사한 벡터인 것은 아니다&lt;br /&gt;
** 이를 해결하는 것이 머신러닝의 핵심적인 목교&lt;br /&gt;
** 입력층 벡터를 유사하게 -&amp;gt; 입력 데이터의 모델링&lt;br /&gt;
** 마지막 은닉 층 벡터를 유사하게 -&amp;gt; 네트워크 모델링&lt;br /&gt;
** Supervised Learning&lt;br /&gt;
** 분류의 정답인 함수 값을 통해 어떤 데이터들이 분류가 같아야 하고, 분류가 달라야하는지&lt;br /&gt;
** 기준을 가르치는 것&lt;br /&gt;
** 뉴럴 네트워크를 학습한다는 것&lt;br /&gt;
** 학습한다는 것은 정답과의 오차를 줄이는 방향으로 모델 파라미터를 수정해 나가는 것&lt;br /&gt;
** 학습이 잘 된 후에는 어떤 입력에 대해 강하게 반응하려면 가중치가 그 벡터와 유사해 진다&lt;br /&gt;
** 모델링&lt;br /&gt;
** 더 적은 데이터를 가지고 더 적합한 학습을 시킬 수 있도록하는 것이 모델링&lt;br /&gt;
** ex) CNN&lt;br /&gt;
** 응용&lt;br /&gt;
** 변종 악성코드의 탐지와 분류&lt;br /&gt;
** 악성코드의 유사도&lt;br /&gt;
*** 메타데이터가 유사하다&lt;br /&gt;
*** 파일 구조와 내용이 유사&lt;br /&gt;
*** 코드 패턴, 행위 패턴이 유사&lt;br /&gt;
*** 사용하는 API가 유사&lt;br /&gt;
*** 개발자의 습관이 유사&lt;br /&gt;
*** 노리는 대상이나 취약점이 유사&lt;br /&gt;
*** 통신하는 대상이나 패킷이 유사&lt;br /&gt;
*** 압축, 난독화, 암호화, 패키지 방식이 유사&lt;br /&gt;
*** 악성 여부?&lt;br /&gt;
*** 정말 모든 악성 코드를 유사한가?&lt;br /&gt;
*** 정말 모든 정상 코드는 유사한가?&lt;br /&gt;
*** 정말 정상코드와 악성코드는 유사하지 않은가?&lt;br /&gt;
*** 탐지명&lt;br /&gt;
*** 보안 분석가들이 오랜 기간동안 악성코드를 분류&lt;br /&gt;
*** 유사한 악성코드를 같은 탐지명으로 분류할까?&lt;br /&gt;
*** 같은 탐지명으로 분류된 악성코드들은 유사할까?&lt;br /&gt;
*** 하나의 악성코드는 하나의 탐지명으로만 분류할 수 있을까?&lt;br /&gt;
*** 탐지명을 label로 학습을 시킨다 하더라도&lt;br /&gt;
** 신종 악성코드의 탐지와 분류&lt;br /&gt;
*** 학습한 데이터의 유사한 악성코드가 없다&lt;br /&gt;
*** 학습한 훈련 데이터에 같은 분류로 분류된 악성코드가 없다&lt;br /&gt;
=== 딥러닝의 원리 2 - Probability ===&lt;br /&gt;
* 변별 모델 &lt;br /&gt;
** classification, regression&lt;br /&gt;
** 입력 데이터 x가 주어질 때, 간단한 응답 y를 결정&lt;br /&gt;
** 조건부 확률을 사용&lt;br /&gt;
** 조건부 확률의 함정&lt;br /&gt;
*** &lt;br /&gt;
** 조건부 활률 뒤집기&lt;br /&gt;
*** 수 많은 경우의 수가 존재하므로 직접 계산하는 것은 굉장히 어렵다&lt;br /&gt;
*** 결합 확률&lt;br /&gt;
*** x,y가 동시에 일어날 확률&lt;br /&gt;
*** 베이즈 정리에 의해 계산     &lt;br /&gt;
*** 결합 확률을 계산&lt;br /&gt;
* 생성모델&lt;br /&gt;
** y라는 속성을 같는 그럴듯한 x를 생성&lt;br /&gt;
** 딥러닝을 활용하면 y뿐만아니라 대량의 x로부터 숨겨진 특징 z를 찾아낼 수 있다&lt;br /&gt;
** 가르친 적 없는 x를 생성&lt;br /&gt;
** 딥러닝 기반 생성모델 VAEs, GANs, Auto-Regressive model, DBNs, RBMs&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
== ~~(딥)~~러닝 ==&lt;br /&gt;
== 고래 등에 태운 텐서플로 ==&lt;br /&gt;
== 딥러닝과 저연어 처리 == &lt;br /&gt;
== 인공지능의 미래 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>165.194.17.165</name></author>
	</entry>
	<entry>
		<id>https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49006</id>
		<title>데블스캠프2017/DeepLearningDay</title>
		<link rel="alternate" type="text/html" href="https://mediawiki.zeropage.org/index.php?title=%EB%8D%B0%EB%B8%94%EC%8A%A4%EC%BA%A0%ED%94%842017/DeepLearningDay&amp;diff=49006"/>
		<updated>2017-07-01T06:24:57Z</updated>

		<summary type="html">&lt;p&gt;165.194.17.165: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;이스트소프트 AI Plus Lab&lt;br /&gt;
* 컴퓨터 비전&lt;br /&gt;
* 자연어 처리&lt;br /&gt;
* 악성코드 탐지&lt;br /&gt;
* 금융시장 예측&lt;br /&gt;
&lt;br /&gt;
__TOC__&lt;br /&gt;
&lt;br /&gt;
== 딥러닝의 원리 ==&lt;br /&gt;
=== 딥러닝의 이해 ===&lt;br /&gt;
* 인공지능&lt;br /&gt;
** 사람만큼이나 사람보다 똑똑한 기계&lt;br /&gt;
* 머신러닝 &lt;br /&gt;
** 더 많은 데이터를 더 빠르게 처리할 수 있지만, 처리 알고리즘은 사람이 만들어야 한다&lt;br /&gt;
** 사람보다 똑똑한 기계를 만들기 위해 사람(생물)이 학습하는 방법을 모델링&lt;br /&gt;
** 데이터로부터 경험적, 귀납적으로 만들어낸 알고리즘에 의해 추론&lt;br /&gt;
** feature와 label&lt;br /&gt;
** 더 좋은 feature들을 추출할 수 있다면, 더욱 쉽게 분류할 수 있다&lt;br /&gt;
** feature engineering &lt;br /&gt;
*** 딥러닝 이전 머신러닝에서 반드시 수행되어야하는 작업&lt;br /&gt;
*** 사람이 정답을 더 잘 찾기 위한 특징을 찾아내고 (-&amp;gt;도메인 전문가) &lt;br /&gt;
*** 사람이 데이터에서 그런 특징을 식별하고 추출하는 알고리즘을 설계하는 것 (-&amp;gt;알고리즘)&lt;br /&gt;
** 단일 층으로 분류가 불가능하다면, 분류가 가능할 때까지 공간을 변형시키면 된다&lt;br /&gt;
** 즉, 다중 층을 사용하면 된다&lt;br /&gt;
* 딥러닝&lt;br /&gt;
** 여러 층을 &lt;br /&gt;
   &lt;br /&gt;
&lt;br /&gt;
   &lt;br /&gt;
  &lt;br /&gt;
&lt;br /&gt;
== ~~(딥)~~러닝 ==&lt;br /&gt;
== 고래 등에 태운 텐서플로 ==&lt;br /&gt;
== 딥러닝과 저연어 처리 == &lt;br /&gt;
== 인공지능의 미래 ==&lt;br /&gt;
&lt;/div&gt;</summary>
		<author><name>165.194.17.165</name></author>
	</entry>
</feed>