일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- Linux
- Dreamhack.io
- 빅분기 실기
- pwnable
- mariadb
- VS Code 오류
- 워게임
- FSB
- 보안뉴스
- centos7
- [EduAtoZ]
- AWS
- tcache
- pandas
- AWS Cloud
- Cloud
- wireshark
- 클라우드
- error
- 빅데이터분석기사
- ios frida
- nmcli
- 풀이
- 인프런
- 빅데이터분석기사 실기
- ubuntu
- 빅데이터 분석기사
- 빅데이터 분석기사 실기
- Python
- dreamhack
- Today
- Total
목록인프런 (46)
0netw0m1ra
https://www.dataq.or.kr/www/board/view.do -> 응시환경 체험 3번 문제 1. 문제 이해 고객 3,500명에 대한 학습용 데이터(X_train.csv, y_train.csv)를 이용하여 성별예측 모형을 만든 후, 이를 평가용 데이터(X_test.csv)에 적용하여 얻은 2,482명 고객의 성별 예측값(남자일 확률)을 다음과 같은 형식의 csv 파일로 생성하시오. - X_train.csv : 3,500명 데이터, 고객의 상품구매 속성(학습용) - X_test.csv : 2,482명 데이터, 고객의 상품구매 속성(평가용) - y_train.csv : 고객의 성별 데이터(학습용) 2. 파일 읽어오기 3. 전처리 1) 데이터 확인 2) 결측치 제거 / 대체 # 많은 양의 결측치가..
1. 오분류표 - sklearn.metrics.confusion_matrix(y_true, y_pred, *, labels=None, sample_weight=None, normalize=None) - y_true : 실제값 - y_pred : 예측값 2. 확률 구하기 - 분류모델에서는 ~할 확률값을 구할 수 있음 - model.predict_proba(x_test) 3. 예측값 저장 - 행은 모두 포함하고, 열(컬럼)은 합격여부의 결과인 컬럼만 저장 인프런 - [EduAtoZ] 빅데이터분석기사 실기 대비 Part3. 분류모델-평가, 결과 파일 저장 https://www.inflearn.com/course/%EB%B9%85%EB%8D%B0%EC%9D%B4%ED%84%B0-%EB%B6%84%EC%84%9D..
중요 1) score의 결과가 가장 높은 것이 좋음!! 중요 2) train과 test의 성능 차이가 크지 않은 것이 좋은 것!! 1. LogisticRegression - 독립 변수의 선형 결합을 이용하여 사건의 발생 가능성을 예측하는데 사용되는 통계 기법 - https://ko.wikipedia.org/wiki/%EB%A1%9C%EC%A7%80%EC%8A%A4%ED%8B%B1_%ED%9A%8C%EA%B7%80 - 반복하면서 기울기 값을 갱신, 기울기 미분값이 0이 되는 지점을 찾음 - max_iter, tol 등을 변경하여 성능을 개선할 수 있음 - max_iter : 반복횟수 - tol : 허용오차, 반복을 중단하는 조건으로 사용됨 - panalty : panalty 종류 - C : panalty ..
1. 순서 1) X, Y 데이터 분리 2) 학습, 평가 데이터로 분리 3) 분리된 데이터의 shape 출력 4) 학습 모델 선택 및 학습 5) 성능 평가 -> 정확도(accuracy) 평가 인프런 - [EduAtoZ] 빅데이터분석기사 실기 대비 Part3. 분류모델-학습 함수 생성 https://www.inflearn.com/course/%EB%B9%85%EB%8D%B0%EC%9D%B4%ED%84%B0-%EB%B6%84%EC%84%9D%EA%B8%B0%EC%82%AC-%EC%8B%A4%EA%B8%B0-%ED%8C%8C%EC%9D%B4%EC%8D%AC
1. 이항분류 - 합격/불합격 판정 - 3과목의 평균 60점 이상 합격, 과락 40점 미만 (실습) 인프런 - [EduAtoZ] 빅데이터분석기사 실기 대비 Part3. 분류모델-샘플생성(참고) https://www.inflearn.com/course/%EB%B9%85%EB%8D%B0%EC%9D%B4%ED%84%B0-%EB%B6%84%EC%84%9D%EA%B8%B0%EC%82%AC-%EC%8B%A4%EA%B8%B0-%ED%8C%8C%EC%9D%B4%EC%8D%AC
1. GridSearchCV - 최고의 HyperParameter를 찾기 위해 사용함 - sklearn.model_selection.GridSearchCV - (estimator, param_grid, scoring=None, n_jobs=None, refit=True, cv=None, verbose=0, pre_dispatch='2n_jobs', error_score=nan, return_train_score=False) - estimator : 학습 모델 - param_grid : 실행해볼 HyperParameter 목록, dict 객체 - cv : CrossValidation에 사용할 나누는 개수, 기본값 = 5 - verbose 0(defualt) : 메시지 출력 안함 1 : 간단한 메시지 2 :..
1. sklearn.base.BaseEstimator - 모델의 기반 클래스 모든 머신러닝 모델(Estimator)은 반드시 상속 구현 - 학습/훈련, 예측, 평가/검정 방법 인터페이스 일관성 제공 - BaseEstimator를 상속받아 만들어진 모델들은 개별 알고리즘으로 구현, 동일 interface 사용 - fit(X_train, y_train) : 모델 학습/훈련 - score(X_test, y_test) : 성능 측정 - 1에 가까울수록 좋은 성능 - predict(X_test) : 예측 값 반환 2. help(알고리즘) 인프런 - [EduAtoZ] 빅데이터분석기사 실기 대비 Part3. sklearn 사용법 3/4 - 모델 학습 평가, 예측 https://www.inflearn.com/cours..
1. 데이터 분할 - sklearn.model_selecton.train_test_split - x_train, x_test, y_train, y_test = train_test_split(X, Y, test_size, train_size, random_state, shuffle, stratify) 배열들을 지정된 비율로 나눠서 반환 test_size = 0.25 : 0.0~1.0 테스트 데이터셋 비율 train_size = None : 0.0~1.0 훈련 데이터셋 비율 random_state = None : 정수 값, 난수 발생의 시드(seed) 값 shuffle = True : boolean 값을 전달해서 섞을지 말지 결정(기본값 = True) stratify : Y의 지정한 데이터 비율을 유지(층화..