일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 엑셀
- 문자열
- Excel
- Windows11
- matlab
- html
- 오피스
- windows
- 파이썬
- Windows10
- 비주얼베이직
- git
- 안드로이드
- 파이썬3
- 파이썬GUI
- 깃
- 파워포인트
- pyqt5
- Outlook
- pythongui
- python3
- Android
- win32com
- office
- 윈도우11
- pandas
- VBA
- 아웃룩
- 윈도우10
- python
Archives
목록requests.get() (1)
Appia의 IT세상

Python[파이썬 웹크롤러] 01-WebCrawler 웹사이트 접속 확인하기(requests) 일단 앞서 포스팅에 이어서 웹크롤러 관련해서 작성을 해볼까 합니다. 간단하게 웹사이트 접속을 확인하는 코드를 작성해보겠습니다. 우선 웹사이트에 접속을 할 때는 get()명령어를 통해서 접근을 합니다. url주소를 get()명령어를 통해서 웹사이트에 접속할 수 있습니다. 물론, 웹브라우저에서 그대로 표시를 해주지는 않지만, 이 부분을 통해서 사이트가 정상인지에 대해서는 확인이 가능합니다. import requests as rq url = "https://naver.com" rq.get(url) cs 위의 코드를 실행하면 아무런 결과를 얻을 수 없습니다. 그럼 정상인지 확인하기 위해서는 몇가지 추가적인 부분에 대..
Python/Python Crawler[크롤러]
2020. 7. 14. 07:18