활동/2022 동계 모각코7 [22동계모각코] 8회 계획 및 평가 시작 시간 : 23-01-31 오후 6시 오늘의 목표 플로이드-워셜 알고리즘 공부 플로이드 워셜 알고리즘이란? 모든 노드에서 다른 모든 노드까지 이동하는 최소비용을 구하는 알고리즘이다. 기본 동작은 다익스트라 알고리즘과 비슷하다고 느꼈다. A에서 B까지 이동하는 것보다 A와 B 사이에 k를 지나 도달하는 게 더 저렴한 비용으로 도달할 수 있다는 점에서 이 알고리즘이 만들어진 듯했다. 이 알고리즘은 정해진 점화식에 따라 비용이 수정된다는 점에서 다이나믹 프로그래밍에도 속한다고 한다. D_ab = min(D_ab, D_ak + D_kb) D_ab : a에서 b로 가는 거리(distance) 시간복잡도🕐 입력 노드가 N개 일때, 모든 노드에 대해서 다른 모든 노드(N개)로 가는 경로를 탐색한다. 그렇기 때문에.. 2023. 1. 31. [22동계모각코] 7회 계획 및 평가 시작 시간 : 23-01-30 오후 6시 오늘의 목표 다익스트라(Dijkstra) 알고리즘 공부 이렇게 공부한 알고리즘을 정리해보는 것은 처음이다. 그래서 글이 너무 복잡하고, 정리가 안 되어 있다. 오늘은 다익스트라 알고리즘을 공부했다. 다익스트라 알고리즘은 정보 탐색 중에서 최단 경로를 구하기 위한 알고리즘이다. 정보 탐색이란, 탐색에 필요한 정보들을 탐색 전에 미리 알고 있는 경우이다. a에서 b까지의 이동경로를 직접 가보지 않고 미리 알수 있는 경우가 정보탐색인 것이다. 또 다른 특징이 있다면, 비용(cost)의 정보가 모두 음이 아닌 정수여야 한다. 비용 정보가 음수도 포함이 된다면 '플로이드-워셜' 알고리즘으로 해결해야 한댔다. *논외이긴 하지만 정보가 사전에 준비되지 않은 경우에는 다른 탐색.. 2023. 1. 30. [22동계모각코] 6회 계획 및 평가 *5회차는 개인사정으로 불참 시작 시간 : 23-01-24 오후 6시 오늘의 목표 LG Aimers: AI전문가과정 - Module 4. 『딥러닝(Deep Learning)』 - 학습 완료하기 gradient diescent의 기본 개념 neural network의 기본적인 학습 과정에서 사용하는 기본 알고리즘. back propagation 기법 Deep learning이 하나의 합성 함수로 봤을 때에 각각의 편미분을 구할 수 있는 방법 gradient vanishing batch normalization CNN 특정 class에 존재할 수 있는 작은 특정 패턴들을 정의하고, 그 패턴들이 주어진 이미지 상에 존재하는지 판단한다. 지난 학기 '인공지능과 미래사회' 수업에서 배웠던 내용이다. 특징 추출 수.. 2023. 1. 24. [22동계모각코] 4회 계획 및 평가 시작 시간 : 23-01-10 오후 6시 오늘의 목표 LG Aimers: AI전문가과정 - Module 4. 『딥러닝(Deep Learning)』 수강 학습 전에 목표를 세웠다. 활용 사례에 대해서 잘 알아가자고 말이다. 학습되는 그 중간 과정(학습하는 와중의 쓰이는 수식들)은 강의를 들어도 머릿속에 잘 남지 않기 때문이다. 그래도 만약 가능하다면, 그 어떻게 활용되고 있는지와 그 중간 과정까지도 잘 알아가보자고 생각했다. perceptron의 기본 정의와 perceptron을 통한 AND, OR, XOR gate 문제에 대해서 공부했다. 심층 신경망(Deep Neural Network; deep learning)의 기본 동작 과정 처음 들으면 어렵게만 다가오는 용어라고 생각한다. 심층 신경망은 '심층'.. 2023. 1. 10. [22동계모각코] 3회 계획 및 평가 시작 시간 : 23-01-09 오후 6시 오늘의 목표 LG Aimers: AI전문가과정 - Module 3. 『지도학습(분류/회귀)』 이어서 수강 hyper plane이란? [R 데이터 분석] 분류모형, 서포트 벡터 머신 (SVM) 분석 서포트 벡터 머신 (Support Vector Machine, SVM)이란? 지도학습 알고리즘 중 하나로 데이터 분류를 위한 모형 확률(p)과 가정을 사용하지 X, 오직 공간상의 정보(선)으로만 이진 분류 두 클래스(○ & ■) ybeaning.tistory.com hyper plane의 margin은 학습하는 동안에는 성능에 영향을 미치지 않는다. 그래서 margin 영역이 어디를 학습 정도에는 별 차이가 없다. 하지만 실제 데이터가 들어가면서 모델 성능의 큰 영향을 .. 2023. 1. 9. [22동계모각코] 2회 계획 및 평가 시작 시간 : 23-01-03 오후 6시 오늘의 목표 LG Aimers: AI전문가과정 - Module 3. 『지도학습(분류/회귀)』 수강 linear regression 선형 회귀를 하는 방식은 'y = ax + b' 혹은 'Y = θ0 + θ1 * x1' 라는 식에서 시작한다(x0 = 1). 더 자세한 이야기를 강의에서 들었지만 머리에 잘 들어오진 않았다. 하지만 이 식만은 제대로 알아가기로 했다. 입력 x에 대해서 올바른 출력 Y를 하기 위해서는 bias(b, θ0)와 weight(a, θ1)가 중요하다. 그리고 인공지능은 이 값들을 마구 바꿔 계산해보며 모든 학습 데이터에 대해 올바른 값을 내는 작업을 수행한다. 이것이 바로 학습이다. 그렇다면 이 값들은 무슨 기준으로 이리저리 바꾸어보는 것일까?.. 2023. 1. 3. [22동계모각코] 1회 계획 및 평가 시작 시간 : 23-01-02 오후 6시 오늘의 목표 LG Aimers: AI전문가과정 - Module 1. 『AI 윤리』, Module 3. 『지도학습(분류/회귀)』 수강 아래에는 강의를 들으며 생소하거나 중요하다고 느끼는 등 내게 기록하고 싶은 부분만 메모하도록 하겠다. Module 1 오늘 배운 내용은 AI윤리 뿐만 아니라 데이터 사이언티스트라면 누구나 알아야 할 소양에 대해 알아보았다. 1. 데이터를 잘 해석하는가? + 상관관계와 인과관계를 제대로 알자. 이 둘 사이의 잘못된 사용은 데이터 과학자라면 절대 해선 안 되는 실수이다. 2. 데이터 전처리와 분석 방법은 적절한가? *데이터를 깊이 분석하는 EDA(exploratory data analysis) 과정에 충분한 시간 보내기 3. 학습에 쓰는.. 2023. 1. 2. 이전 1 다음