목록ML (14)
느좋 인공지능

1) Reinforcement learning introductionagent가 행동을 해서 환경에 변화를 주고, 환경은 agent에게 보상을 준다. 보상을 최대화하는 행동을 선택하는 방법이 강화학습이다. 헬리콥터 날게하는 법을 예시로 들면, helicopter의 position이 state s라 하고 how to move control sticks를 action a라고 한다. state s에 대한 정확한 action a를 구할 수 없어 지도학습은 적절하지 않다. best way를 바로 알려주는 것이 아니라, reward function을 이용하여 잘 날았다면 +1, 못 날았다면 -1000의 보상을 주면서 최적의 헬리콥터 조종법을 스스로 찾도록 적용시킨다.mars rover 예시를 살펴보자. state ..

사용자에게 맞는 아이템을 추천하는 시스템을 추천시스템이라 한다.사용자의 행동을 기반으로 추천하는 협업 필터링(Collaborative filtering)과아이템의 특징 기반으로 추천하는 콘텐츠 기반 필터링(Content-Based Filtering) 등이 있다. 1) collaborative filteringr(i,j)=0인 점을 찾고 이 값을 예측하는 것이 목표이다. 값을 예측하기 위해서는 영화에 대한 새로운 변수가 필요하다.Alice를 예시보면 그녀는 로맨스(x1)가 높은 영화를 좋아하고, 액션(x2)가 높은 영화는 좋아하지 않으므로, $w^{(1)}$과 $b^{(1)}$을 저렇게 설정하여, 3번째 영화의 평점을 예측할 수 있다.즉, user j의 movie i 평점은 $w^{(j)} \cdot x^..

데이터에 대한 정답이나 목표가 주어지지 않은 상태에서, 데이터 자체에서 패턴을 발견하는 ml 방식인 비지도학습에 대해 다룬다. 1) clusteringK-means clustering흔하게 사용되는 클러스터링 알고리즘으로, k개의 클러스터로 묶는 알고리즘이다.k=2인 예시를 살펴보자. 두개의 랜덤 centers of cluster(cluster centroids)를 잡고 각 점이 두 centroid 중 어디와 가까운지 계산한다. 이후, 두 그룹의 평균을 계산하여 centroids를 옮긴다. 이 과정을 반복하면서 centroids와 그룹들이 수정되다가 점들이 하나도 바뀌지 않는 순간 종료된다.만약 데이터가 하나도 없는 군집이 생긴다면, 해당 군집을 삭제하고 k-1로 진행하거나(보편적), 그 centroid..

1) Decision Trees tree는 X가 질적변수일 때만 가능하다고 오해했었는데, 양적변수일 때도 가능하다. 의사결정 트리를 만들 때 무엇을 고려해야할까?1. root node에 어떤 feature을 쓸지 -> maximize purity (entropy 개념)2. 각각의 node에서 어떤 기준으로 split 할지 -> entropy 개념3. 언제 tree를 중단할지-> 100% cat or 100% dog으로 나눠질 때 / maximum Depth / purity score의 improvements가 임계보다 낮을 때 / node의 예시 개수가 임계보다 낮을 때. 2) Decision tree learning다 cat or 다 dog -> pure한 상태.그 사이라면 얼마나 pure한지 어떻게..

1) Advice for applying machine learning머신러닝 알고리즘들을 도구로 가질 때, 이를 효율적으로 잘 쓸 수 있도록 모델 보강하는 방법에 대해 다룬다. 만약, 받아들일 수 없을 정도로 큰 오류가 있다면 무엇을 해야할까?1. more training examples2. smaller sets of features3. additional features4. adding polynomial features $(x_1^2, x_2^2, x_1x_2)$5. decreasing $\lambda$6. increasing $\lambda$ 모델이 지금 어떻게 작동되고 있는지를 확인해야, 성능을 높이기 위해서 어떤 방법을 선택할 지 결정할 수 있다. 즉, 학습 알고리즘에서 뭐가 제대로 혹은 나..