본문 바로가기

분류 전체보기

(58)
Teachable Machine teachablemachine.withgoogle.com/ Teachable Machine Train a computer to recognize your own images, sounds, & poses. A fast, easy way to create machine learning models for your sites, apps, and more – no expertise or coding required. teachablemachine.withgoogle.com 2017년 버전 teachablemachine.withgoogle.com/v1/ Teachable Machine Train a computer to recognize your own images, sounds, & poses. A fast,..
프로젝트 머신러닝 적용 프로젝트 절차 Teachable Machine 1. 소개 2. 이미지 분류 예시 - 웹캠 이용 - 이미지 업로드 방식 이미지 데이터 수집 방법 1. 크롤링 (Crawling) 2. BeautifulSoup - 네이버 금융 3. 이미지 크롤링 - 네이버 영화 포스터 - 네이버 이미지 - 네이버 이미지 50개 이상 by Selenium - 네이버 이미지 50개 이상 by Selenium with Pycharm 주제선정 및 데이터 수집 1. 주제 정하기 2. 이미지 수집 3. 이미지 정제 학습/테스트 1. 이미지 업로드 2. Teachable Machine 이용하여 학습 3. 모델 만들기 및 테스트 4. 모델 내보내기 서비스 개발 1. 모델 적용 테스트 2. 사이트 개발 3. 서비스 배포
머신러닝 치트 시트 Microsoft Azure Algorithm Flowchart Source: https://docs.microsoft.com/en-us/azure/machine-learning/machine-learning-algorithm-cheat-sheet Machine Learning Algorithm Cheat Sheet - designer - Azure Machine Learning A printable Machine Learning Algorithm Cheat Sheet helps you choose the right algorithm for your predictive model in Azure Machine Learning designer. docs.microsoft.com SAS Algorithm F..
DATA SCIENCE ROADMAP 2020 medium.com/@ArtisOne/data-science-roadmap-2020-b256fb948404 DATA SCIENCE ROADMAP 2020 Disclaimer — Everyone has different question paper in life. Many people fail because they try to copy others. This is true even if you… medium.com
make_blobs make_blobs 모든 방향으로 같은 성질을 가지는 정규분포를 이용해 가상 데이터 생성 클러스링 용 가상데이터를 생성하는데 사용 make_blobs 함수의 인수, 반환값 1. 인수 - n_samples, n_features, centers, cluster_std, center_box - n_samples : 표본 데이터 수, 기본값 100 - n_features : 독립 변수 수, 기본값 20 - centers : 클러스터 수 혹은 중심, 기본값 3 - cluster_std: 클러스터 표준 편차, 기본값 1.0 - center_box: 클러스터 바운딩 박스(bounding box), 기본값 (-10.0, 10.0)) 2. 반환값 - X : [n_samples, n_features] 크기의 배열 - y ..
5-3. Apriori (연관규칙) Apriori 알고리즘 연관 규칙을 중 가장 먼저 개발 높은 빈도를 가지는 조합을 찾아내는 목적 장바구니 분석 지지도 (Support) : 아이템 A,B 모두 구매하는 비율 신뢰도 (Confidence) : 아이템(A)을 구매한 경우, 아이템(B)를 얼마나 구매할 것인지 향상도 (Lift) : B만 구매할 때보다, A를 구매한 사람이 B를 구매할 확률이 마나 더 높은지
5-2-1. k-means 실습 # Authors: Robert Layton # Olivier Grisel # Mathieu Blondel # # License: BSD 3 clause print(__doc__) import numpy as np import matplotlib.pyplot as plt from sklearn.cluster import KMeans from sklearn.metrics import pairwise_distances_argmin from sklearn.datasets import load_sample_image from sklearn.utils import shuffle from time import time n_colors = 64 # Load the Summer Palace photo china = l..
5-2. k-means (k-평균 알고리즘) k-평균 알고리즘(K-means algorithm) 주어진 데이터를 k개의 클러스터로 묶는 알고리즘 비지도 학습 (자율 학습) 알고리즘 실행 과정 1) 초기 k "평균값" (위의 경우 k=3) 은 데이터 오브젝트 중에서 무작위로 뽑힌다. (색칠된 동그라미로 표시됨) 2) k 각 데이터 오브젝트들은 가장 가까이 있는 평균값을 기준으로 묶인다. 평균값을 기준으로 분할된 영역은 보로노이 다이어그램 으로 표시된다 3) k개의 클러스터의 중심점을 기준으로 평균값이 재조정된다 4) 수렴할 때까지 2), 3) 과정을 반복한다 동작 과정 k 가 작을 때 k가 클 때 참조 : ko.wikipedia.org/wiki/K-%ED%8F%89%EA%B7%A0_%EC%95%8C%EA%B3%A0%EB%A6%AC%EC%A6%98 k..
5-1-1. SVM 실습 print(__doc__) import numpy as np import matplotlib.pyplot as plt from sklearn import svm from sklearn.datasets import make_blobs # we create 40 separable points X, y = make_blobs(n_samples=40, centers=2, random_state=6) # fit the model, don't regularize for illustration purposes clf = svm.SVC(kernel='linear', C=1000) clf.fit(X, y) plt.scatter(X[:, 0], X[:, 1], c=y, s=30, cmap=plt.cm.Paired) # p..
5-1. SVM (Support Vector Machine) 서포트 벡터 머신(support vector machine) 지도학습 패턴 인식, 자료 분석 목적 마진 최대화 마진 : 서포트 벡터를 지나가는 직선과의 거리 비선형 SVM Kernel
4-1-2. 타이타닉 생존자 예측 - 의사결정나무 정확도 import matplotlib.pyplot as plt training_accuracy = [] test_accuracy = [] # 1 에서 30 까지 depth_settings 를 적용 depth_settings = range(1, 31) for depth in depth_settings: # 모델 생성 tree = DecisionTreeClassifier(max_depth=depth, random_state=3) tree.fit(X_train, y_train) # 훈련 세트 정확도 저장 training_accuracy.append(tree.score(X_train, y_train)) # 테스트 정확도 저장 test_accuracy.append(tree.score(X_test, y_test)) pl..
4-1-1. 타이타닉 생존자 예측 - 의사결정나무 타아타닉 생존자 예측을 의사결정나무 알고리즘으로 수행한다