일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- pythonlearner
- RapidMiner
- 파이썬러너
- featureimportance
- causalanalysis
- 데이터
- sentimentanalysis
- 텍스트마이닝
- 통계개념
- nrcemotionlexicon
- 감성분석
- htmltags
- 인과분석
- 래피드마이너
- agglomerative clustering
- GoEmotions
- 데이터분석
- 오블완
- 올라마
- llma
- customoperator
- 티스토리챌린지
- 데이터크롤링
- datacrawling
- LDA
- 머신러닝
- 커스텀오퍼레이터
- customeoperator
- 토픽모델링
- 채용공고분석
- Today
- Total
목록데이터 (2)
마이와 텍스트마이닝

데이터에 대한 이해를 높이기 위해 통계 함수와 그 분석은 매우 중요한 역할을 합니다. 또한 머신러닝 알고리즘에서도 필수적으로 사용되며, 중요한 기반이 됩니다. 이번 글에서는 파이썬을 이용해 기본적인 통계 기법들을 살펴보겠습니다. 이러한 기법들은 EDA(탐색적 데이터 분석) 과정에서도 자주 활용됩니다. 먼저 데이터를 불러오겠습니다. Kaggle에서 다운로드한 customer churn 데이터입니다.https://www.kaggle.com/datasets/muhammadshahidazeem/customer-churn-dataset Customer Churn DatasetPredict Customer's Retentionwww.kaggle.com import pandas as pdimport numpy as ..

안녕하세요~~ 오늘은 Beautiful Soup을 사용해 웹사이트 데이터를 크롤링하는 방법에 대해서 이야기해볼게요! 제가 크롤링할 웹사이트는 ISRI라는 Information Systems 관련 모델과 구성 요소 정보가 있는 웹사이트입니다. 이 정보를 데이터프레임으로 정리하여 CSV 파일로 저장할 예정입니다. https://isri.sciencesphere.org/index.php?o=constructs 👉🏻 크롤링할 링크입니다. 이 링크에 다양한 construct들이 나열된 목록이 있습니다. 이 목록에 있는 각 construct의 링크에 들어가서 해당 construct의 이름, 정의, 이론/모델, 참조 정보들을 추출할 예정입니다. 그리고 이 데이터를 데이터프레임에 추가할거예요. # import l..