본문 바로가기

분류 전체보기54

plt.style.use() - matplotlib 테마 바꾸기 print(plt.style.available) ['Solarize_Light2', '_classic_test_patch', 'bmh', 'classic', 'dark_background', 'fast', 'fivethirtyeight', 'ggplot', 'grayscale', 'seaborn', 'seaborn-bright', 'seaborn-colorblind', 'seaborn-dark', 'seaborn-dark-palette', 'seaborn-darkgrid', 'seaborn-deep', 'seaborn-muted', 'seaborn-notebook', 'seaborn-paper', 'seaborn-pastel', 'seaborn-poster', 'seaborn-talk', 'seaborn.. 2021. 11. 4.
Pycaret을 사용한 데이터 분석 Pycaret pycaret이란 AutoML을 하게 해주는 파이썬 라이브러리이다. 기존에 있던 Scikit-learn, XGBoost, LightGBM, spaCy 등 여러가지 머신러닝 라이브러리를 ML High-Level API로 제작했다. 단 몇 줄로 데이터 분석 및 모델 성능 비교, Log를 생성까지 가능하다. AutoML(오토ML) 이란? 데이터 성격에 맞게 자동으로 데이터 분석 모델을 추천해주는 Auto Machine Learning 기법 AutoML(오토ML) 장점 인공지능 분석 모델을 학습하기 위해 데이터에서 중요한 특징(feature)을 선택하고 인코딩하는 방식에 대한 특징 엔지니어링(feature engineering) 자동으로 추출한다. 인공지능 모델 학습에 필요한 사람의 설정들, 하이.. 2021. 11. 1.
집합 자료형 차집합 difference(), 합집합 union() , 교집합 intersection(() set() : 집합 특징 중복을 허용하지 않는다. 순서가 없다(Unordered). a = set([1, 2, 3, 4]) b = set([3, 4, 5, 6]) 차집합 : 두 set 간의 차이중, 첫 번째 set에 속하는 집합 반환 ex) set_A.difference(set_B) difference() diff = a.difference(b) 또는 diff = a-b print(diff) 결과 { 1, 2 } 합집합 : 중복을 제외한 전체 값 출력 union() a.union(b) 또는 a|b 결과 {1, 2, 3, 4, 5, 6} 교집합 intersection() a.intersection(b) 또는 a & b 결과 {3, 4} 2021. 11. 1.
apply(), lambda() 1. apply() apply() 함수는 DataFrame의 칼럼에 복잡한 연산을 vectorizing 할 수 있게 해주는 함수로 매우 많이 활용되는 함수이다. 아래와 같은 데이터 프레임이 있다고 가정했을 때 df = pd.DataFrame([[1,2],[3,4],[5,6]], columns=['a','b']) plus 함수를 적용해보자 def plus(x): x+=1 return x df['a'].apply(plus) 2. lambda() lambda 입력변수 : 리턴값 위에서 plus 함수를 정의 하는대신 lambda()를 활용해 같은 출력 값을 얻을 수 있다. df['a'].apply(lambda x : x+1) apply와 lambda 활용한 파생변수 생성 train['공급_자격'] = train.. 2021. 11. 1.
핸즈온 머신러닝(Hands-On Machine Learning) 18장 - 강화학습(3) 18.8 시간차(Temporal Difference) 학습 독립적인 행동으로 이루어진 강화학습 문제는 보통 마르코프 결정 과정으로 모델링될 수 있지만 학습 초기에 에이전트는 전이 확률( T(s,a,s') )에 대해 알지 못하며, 보상( R(s,a,s') )이 얼마나 되는지 알지 못한다. 그렇기 때문에, 보상에 대해 알기 위해서는 적어도 한번씩은 각 상태(state)와 전이를 경험해야 하며, 전이 확률에 대해 신뢰할만한 추정을 얻기 위해서는 여러번 경험을 해야한다. 시간차 학습(TD 학습, Temporal Difference Learning)은 가치 반복(Value-iteration) 알고리즘과 비슷하지만, 1. 에이전트가 MDP에 대해 일부의 정보만 알고 있을 때 다룰 수 있도록 변형한 것 2. 일반적으.. 2021. 10. 31.
핸즈온 머신러닝(Hands-On Machine Learning) 18장 - 강화학습(2) 18.6 정책 그래디언트 (PG, Policy Gradient) 정책 탐색에서 간단하게 살펴 보았듯이 정책 그래디언트(PG)는 높은 보상을 얻는 방향의 그래디언트로 정책(policy)의 파라미터를 최적화하는 알고리즘이다. PG 알고리즘 중 인기있는 알고리즘은 1992년 로날드 윌리엄스(Ronald Williams)가 제안한 REINFORCE 알고리즘이다. REINFORCE의 방법은 다음과 같다. 신경망 정책이 여러 번에 걸쳐 게임을 플레이하고 매 스텝마다 선택된 행동이 더 높은 가능성을 가지도록 만드는 그래디언트를 계산한다. 몇 번의 에피소드를 실행한 다음, 각 행동의 점수를 계산한다. 한 행동 점수가 양수이면 선택될 가능성이 높도록 1번에서 계산한 그래디언트를 적용한다. 만약, 음수일 경우 덜 선택 되.. 2021. 10. 30.