개요 본 튜토리얼은 실제 공기관에서 진행할 때 수강생들이 직접 보고 할 수 있도록 만든 샘플 자료입니다. 무단 복사 및 블로그 게시는 금지입니다. Step 01. Tableau Public 다운로드 아래 경로에서 Tableau Public를 다운로드 받는다. [만들기] - [Tableau Desktop Public Edition 다운로드] 참고 : https://public.tableau.com/app/discover Step 02. Tableau Desktop 설치 시작 Step 03. 태블로 화면 확인 및 파일 불러오기 아래 화면에서 Microsoft Excel 파일 불러온다. Step 04. 워크시트 1 - 지역별 근로자 수 현황 엑셀 데이터를 불러온 후, 시트로 이동한다.
개요 수강생들이 가장 궁금해 하는 연봉에 대한 여러가지 이야기 그리고 필자의 이야기 마케팅, SI, 스타트업, 그리고 프리랜서의 이야기 약 2편에 걸쳐서 연재할 예정 어느 오픈 카톡방에서.. 필자가 주로 애용하는 오픈 카톡방이 있다. 다양한 정보와 수다를 즐기는 곳인데, 여기에 아래와 같은 글이 공유되었다.
참조 : 연봉 점프업의 비밀 1/3(산업구조 관점) by Soojung Shin 이 글을 읽으니 필자의 과거 행적이 스쳐 지나갔다.
첫번째 꿈은 선교 그리고 NGO 20대의 꿈은 쉽게 말하면 돈을 버는 직업은 아니었다.
개요 블로그를 3년간 운영하면서 회고 또는 결산하는 글을 써본적은 없었다. 요즘에 역 시차적응 때문인지.. 최근 중요한 결정을 내린 후폭풍인지.. 새벽에 자주 잠이 깨는데, 일어난 김에 몇가지 회고의 글을 남겨보려고 한다. (글쓰는 현재 지금 시각 새벽 2시다..) 좋은 인연 상반기에도 좋은 인연이 생겼다.
수많은 학생들, 새로운 기회의 확장, 새로운 학교 및 새로운 과정에서의 여러 만남들 2개 기관은 작년에 이어서 진행한 건, 1개 기관은 신규로 진행한 건 강의 평가가 모두 좋게 나와서 감사할 뿐이다.
작업형 2유형 최종정리 작업형1 : 3문제 (30점), 데이터 전처리 작업형2 : 1문제 (40점), 분류/회귀 예측 모델링 작업형3 : 2문제 (30점), 가설 검정 주요 라이브러리 palmerpenguins : 팔머펭귄 데이터셋의 목표는 iris 데이터셋의 대안으로 데이터 탐색 및 시각화를 위한 데이터셋 제공. scikit-learn : 머신러닝을 위한 라이브러리 lightgbm : LightGBM은 Microsoft에서 개발한 오픈 소스 기계 학습 라이브러리로, 대용량 데이터셋에서 빠른 속도와 높은 성능을 제공하는 것이 특징 주의 각 코드에 대한 설명은 별도로 하지 않습니다.
작업형 2유형 최종정리 작업형1 : 3문제 (30점), 데이터 전처리 작업형2 : 1문제 (40점), 분류/회귀 예측 모델링 작업형3 : 2문제 (30점), 가설 검정 주요 라이브러리 palmerpenguins : 팔머펭귄 데이터셋의 목표는 iris 데이터셋의 대안으로 데이터 탐색 및 시각화를 위한 데이터셋 제공. scikit-learn : 머신러닝을 위한 라이브러리 lightgbm : LightGBM은 Microsoft에서 개발한 오픈 소스 기계 학습 라이브러리로, 대용량 데이터셋에서 빠른 속도와 높은 성능을 제공하는 것이 특징 주의 각 코드에 대한 설명은 별도로 하지 않습니다.
작업형 3유형 최종정리 작업형1 : 3문제 (30점), 데이터 전처리 작업형2 : 1문제 (40점), 분류/회귀 예측 모델링 작업형3 : 2문제 (30점), 가설 검정 라이브러리 확인 파이썬에서 가설검정을 위한 통계와 관련된 라이브러리는 크게 2가지이다. scipy : SciPy는 수치 계산, 최적화, 선형 대수, 신호 및 이미지 처리, 통계 분석 등과 같은 과학적 계산 작업을 수행하는 데 사용됨 statsmodels : Statsmodels는 통계 분석과 추정을 위한 파이썬 라이브러리로, 선형 회귀, 로지스틱 회귀, 시계열 분석, 비모수적 추정 등 다양한 통계 모델을 지원함.
개요 연도, 월, 주만 있는 컬럼을 날짜 데이터 타입으로 변경하려면 어떻게 해야할까? 약간의 트릭이 필요하다 데이터 생성 가상의 데이터를 생성한다. import pandas as pd data = [ {"year": 2020, "month": 1, "week": 2, "company" : "A회사", "revenue_pct" : 49}, {"year": 2020, "month": 1, "week": 2, "company" : "B회사", "revenue_pct" : 51}, {"year": 2021, "month": 1, "week": 2, "company" : "A회사", "revenue_pct" : 37}, {"year": 2021, "month": 1, "week": 2, "company" : "B회사", "revenue_pct" : 63}, {"year": 2022, "month": 12, "week": 1, "company" : "A회사", "revenue_pct" : 70}, {"year": 2022, "month": 12, "week": 1, "company" : "B회사", "revenue_pct" : 30}, ] df = pd.
책을 출간하였습니다. Streamlit이란 Streamlit은 데이터 분석가가 간단한 코드 몇줄로 빠르게 웹앱을 만들어 줄 수 있는 Python 라이브러리입니다. 웹사이트 : https://streamlit.io/ 누가 읽어야 할까요? 데이터 분석가 : 웹개발은 모르지만 대시보드를 만들어야 하는 분 국비교육 수강중인 비전공자 : Java 웹개발로 머신러닝 플랫폼을 만들어야 하는 분 개별적인 포트폴리오가 필요한 취업준비생 : ML/DL 알고리즘 익히는 것도 어려운데, 웹개발은 언제 배우죠? 데모 페이지 기초문법 포함 2달이면 충분히 아래 데모 페이지와 같이 만들 수 있습니다. 데모 페이지 : https://dschloe-streamlit-book-seoul-app-w9me9j.
사전학습 이 글을 읽기전에 한번 Streamlit 라이브러리를 활용한 배포 - BigQuery 사용 을 읽고 오기를 바란다. 실습 순서 서울시 부동산 실거래가를 API 크롤링으로 가져온다. JSON 형태의 데이터를 pandas 데이터프레임으로 변환한다. 데이터프레임을 BigQuery에 전체 데이터를 저장한다. 저장된 데이터프레임을 BigQuery에서 일부 컬럼만 불러온다. 실습 1 - API 크롤링에서 빅쿼리로 데이터 저장 .streamlit/secrets.toml 을 열고 아래와 같이 설정한다. seoul_api_key는 서울 열린데이터 광장을 의미한다. gcp_service_account 아래 내용은 api key를 json 파일로 열면 확인할 수 있다.
개요 Wandb에 접속 후, 활용해본다. 회원가입 회원가입을 진행한다. 사이트 : https://wandb.ai/site 여기에서 Github로 로그인을 진행한다. Authorize wandb를 클릭한다. Create your account 항목에 Full name과 회사명을 입력한다. 아래와 같이 지정했다. 교육 목적으로 선택했다. 팀 이름명을 지정한다. 추후에 설정한다. API Key가 나타난다. 어딘가에 인증키를 저장해둔다. db3cce8abed215f7b3770979a0006861dbcfe4f2 추후 확인 시 User Settings을 클릭한다. Scroll Down 하면 API 키값이 나타난다. 캐글 노트북 상단 메뉴 [Add-ones] - [Secrets]를 클릭한다. Secret 값을 아래와 같이 추가한다. 추가한 후, 아래 명령어를 추가한다.