목록전체 글 (37)
고래밥 이야기
본 글은 얄코의 제대로 파는 Git & GitHub를 참고하였습니다. - 잡다 모음 VisualStudio Code - ctrl+`로 바로 git사용에 적합한 터미널에 접근 가능 CLI(command line interface) vs GUI(graphical user interface) - 터미널에 직접 접근하는 방식(git bush) vs 프로그램을 이용하여 접근하는 방식(sourcetree) - 명령어 기본설정 git --version // git version 확인하기 git update-git-for-windows // git verison 최신 version으로 업데이트할 수 있다. git config --global core.autocrlf true // 협업시 윈도우와 맥에서 엔터 방식 차이..

MATLAB tutorial 中 MATLAB Onramp을 참고하였다. 기본적인 모르는 게 있다면 천천히 추가하자! 기본 서식 데이터가 요렇게 있다고 가정하자. - 작업 공간에 있는 변수들을 MATLAB 파일 형식인 MAT 파일로 저장할 수 있다. ex) save apple -> apple.mat가 만들어 진다. - 작업 공간에 있는 변수들을 제거할 수 있다. ex) clear - MAT 파일로부터 변수를 불러올 수 있다. ex) load apple -> 작업공간에 apple.mat에 저장된 변수들이 불러와진다. - 작업 공간에 있는 변수들은 이름만 치면 변수의 내용을 확인할 수 있다. ex) data -> 명령 창에 data 내용이 나온다. - 작업 공간이 아닌 명령 창의 내용을 몽땅 지울 수 있다. ..

머신러닝 교과서 with 파이썬, 사이킷런, 텐서플로를 참고하여 작성하였습니다. # 안보고 코드를 구현하려고 노력하였기에 변수가 각각 틀릴 수도 있습니다.. # 코드 다 암기하기. 실력이 급하다. # 10.2의 데이터를 불러와 사용하였습니다. 경사 하강법으로 회귀 모델의 파라미터 구하기 import numpy as np class LinearRegressionGD: def __init__(self, lr=0.001, n_iter=50): self.lr = lr self.n_iter = n_iter # 초기 값 설정, learning rate는 0.001로, n_iter=50으로 잡는다. def fit(self, X, y): self.w_ = np.zeros(1 + X.shape[1]) # w0, w1 ...

머신러닝 교과서 with 파이썬, 사이킷런, 텐서플로를 참고하여 작성하였습니다. # 안보고 코드를 구현하려고 노력하였기에 변수가 각각 틀릴 수도 있습니다.. # 코드 다 암기하기. 실력이 급하다. 데이터 불러오기 import pandas as pd df1 = pd.read_csv('https://raw.githubusercontent.com/rickiepark/' 'python-machine-learning-book-3rd-edition' '/master/ch10/housing.data.txt',sep="\s+",header=None) # header = None은 column이름을 지정하지 않겠다는 소리이며, sep="\s+"는 빈칸(space bar)을 기준으로 나누겠다는 소리이다. print(df1..

강의 Foundations of Machine Learning을 듣고 제 나름대로 정리한 글입니다. 해당 사이트는 다음과 같습니다. Foundations of Machine Learning (bloomberg.github.io) Foundations of Machine Learning With linear methods, we may need a whole lot of features to get a hypothesis space that's expressive enough to fit our data -- there can be orders of magnitude more features than training examples. While regularization can control overfit..

머신러닝 교과서 with 파이썬, 사이킷런, 텐서플로를 참고하여 작성하였습니다. # 안보고 코드를 구현하려고 노력하였기에 변수가 각각 틀릴 수도 있습니다.. # 코드 다 암기하기. 실력이 급하다. 단일 분류기보다 앙상블이 더 오차가 적다는 것을 이항 분포를 통해서 보이기 from scipy.special import comb # 조합을 활용할 때 사용된다. combination의 comb이다. import math def ensemble_error(n_classifier, error): k_start = math.ceil(n_classifier / 2) # 분류기 개수의 절반 이상이 예측이 틀린다면, 전체가 틀렸다고 할수 있으므로..! 가령 11개라면 6개 이상이 틀려야만이 앙상블이 틀린 것이다. pro..