[데이터분석]SpartaCodingClub 5

마지막주_백테스팅(2)

5주에 걸친 코딩클럽이 드디어 마무리됐다 이번주에 배운 내용은 백테스팅을 활용하여 주식의 변동 추이를 확인하는 내용이었다 !pip install yfinance pandas-datareader finance-datareader from pandas_datareader import data as pdr import yfinance as yf yf.pdr_override() import numpy as np import pandas as pd import FinanceDataReader as fdr 필요한 라이브러리들은 이렇게! 이젠 numpy, pandas, yfinance는 익숙해졌다ㅎㅎ def get_return(code, k): df = fdr.DataReader(code,'2018') df['buy..

넷째주_백테스팅

설날으로 인해 한 주 수업을 못들었다 이번주에 와다다 들었더니 빡세긴 하다ㅎㅎ 넷째주에는 장기/단기 이동평균선을 활용하여 언제 주식을 사고 팔아야 하는지 백테스팅을 하는 법을 배웠다 !pip install yfinance pandas-datareader finance-datareader from pandas_datareader import data as pdr import yfinance as yf yf.pdr_override() import numpy as np import pandas as pd import FinanceDataReader as fdr 우선 필요한 라이브러리들이다 yfinance, pandas-datareader, finance-datareader 총 3가지가 필요하다 df_1 = f..

Python 셋째주_DART 데이터 활용하기

3주차는 DART에 공시된 데이터를 활용하는 것을 배웠다 !pip install dart-fss import dart_fss as dart_fss import pandas as pd 이번에 필요한 패키지들 DART에서 인증키를 발급받아야 오픈 API를 사용할 수 있다 https://opendart.fss.or.kr/uat/uia/egovLoginUsr.do 전자공시 OPENDART 시스템 | 로그인 opendart.fss.or.kr 이곳에서 인증키를 발급받지! api_key = 'f8fd5b8dff7df55cdac5b90b97da789fb3c447f3' dart_fss.set_api_key(api_key=api_key) corp_list = dart_fss.get_corp_list() corp_list...

Python 둘째주_해외주식 분석

이번주도 난이도가 꽤 있었던 수업이었다 우선 깔아야 하는 패키지들부터! !pip install pandas numpy import pandas as pd import numpy as np !pip install yfinance import yfinance as yf pandas, numpy, yfinance 패키지를 사용했다 data = { 'name': ['철수', '영희' ,'동희', '영수'], 'age': [15, 12, 20, 35] } df = pd.DataFrame(data) 데이터프레임을 만드는 방법 doc = { 'name' : '세종', 'age' : 23 } df = df.append(doc, ignore_index = True) 그리고 documents를 만드는 방법이다 df['ci..

Python 첫째주_파이썬 기초

-라이브러리 설치하기 !pip install bs4 requests -뉴스 크롤링하기 import requests from bs4 import BeautifulSoup headers = {'User-Agent' : 'Mozilla/5.0 (Windows NT 10.0; Win64; x64)AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.86 Safari/537.36'} data = requests.get('https://search.naver.com/search.naver?where=news&ie=utf8&sm=nws_hty&query=삼성전자',headers=headers) soup = BeautifulSoup(data.text, 'html.parse..