일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- win32com
- pythongui
- Windows10
- 오피스
- 윈도우11
- 문자열
- Android
- python
- VBA
- html
- Excel
- matlab
- 윈도우10
- pandas
- windows
- office
- 안드로이드
- python3
- 파이썬3
- Windows11
- 비주얼베이직
- 깃
- 파이썬
- 아웃룩
- pyqt5
- 엑셀
- 파워포인트
- 파이썬GUI
- Outlook
- git
Appia의 IT세상
Python[파이썬 웹크롤러] 00-WebCrawler 크롤러를 위한 모듈 설치 - requests 모듈설치 본문
Python[파이썬 웹크롤러] 00-WebCrawler 크롤러를 위한 모듈 설치 - requests 모듈설치
Appia 2020. 7. 12. 07:32Python[파이썬 웹크롤러] 00. WebCrawler 크롤러를 위한 모듈 설치 -
requests 모듈설치
빅데이터, 인공지능등이 발전함에 따라, 데이터의 중요성이 매우 켜지고 있습니다. 그 중에서 가장 큰 부분은 바로 인터넷에 있는 정보를 잘 활용하느냐 입니다. 그래서 크롤러를 위한 모듈에 대해서 설치해보도록 하겠습니다. 그중에서 requests 모듈은 매우 많이 사용되기 때문에, 설치을 한번 진행해보도록 하겠습니다.
흔히 가장 쉽게 설치 할 수 있는 방법은 커맨드 콘솔에서 'pip install requests'를 입력하여 실행하는 것입니다. 그럼 다음과 같은 화면이 나타납니다.
D:\BlogProject>pip install requests Collecting requests Downloading requests-2.23.0-py2.py3-none-any.whl (58 kB) |████████████████████████████████| 58 kB 415 kB/s Collecting urllib3!=1.25.0,!=1.25.1,<1.26,>=1.21.1 Downloading urllib3-1.25.9-py2.py3-none-any.whl (126 kB) |████████████████████████████████| 126 kB 1.3 MB/s Collecting chardet<4,>=3.0.2 Downloading chardet-3.0.4-py2.py3-none-any.whl (133 kB) |████████████████████████████████| 133 kB 6.8 MB/s Collecting idna<3,>=2.5 Downloading idna-2.9-py2.py3-none-any.whl (58 kB) |████████████████████████████████| 58 kB ... Collecting certifi>=2017.4.17 Downloading certifi-2020.4.5.1-py2.py3-none-any.whl (157 kB) |████████████████████████████████| 157 kB 6.4 MB/s Installing collected packages: urllib3, chardet, idna, certifi, requests Successfully installed certifi-2020.4.5.1 chardet-3.0.4 idna-2.9 requests-2.23.0 urllib3-1.25.9 WARNING: You are using pip version 20.0.2; however, version 20.1.1 is available. You should consider upgrading via the 'd:\blogproject\venv\scripts\python.exe -m pip install --upgrade pip' command. |
만약 정상설치가 되지 않았다면, import requests 명령어를 입력하였을 때, 다음과 같은 ModuleNotFoundError가 발생합니다.
>>>import requests
Traceback (most recent call last):
File "<input>", line 1, in <module>
File "C:\Program Files\JetBrains\PyCharm Community Edition 2020.1\plugins\python-ce\helpers\pydev\_pydev_bundle\pydev_import_hook.py", line 21, in do_import
module = self._system_import(name, *args, **kwargs)
ModuleNotFoundError: No module named 'requests'
|
cs |
이와 같은 형태로, requests 모듈을 설치해봤습니다. 물론 PyCharm등을 사용하시는 분이라면 다음과 하기 링크를 통해서 requests를 검색하여 설치할 수 있습니다. 참고로 위에서 보시는 바와 같이 urllib의 경우에는 내장 모듈이기 때문에 별도 설치가 필요하지 않습니다.
이번 포스팅에서는 Python[파이썬 Crawler 크롤러] 00-Crawler 크롤러를 위한 모듈설치 - requests 모듈설치 라는 주제로 requests 모듈을 설치하는 방법에 대해서 포스팅을 간단히 해봤습니다. 혹 궁금하신점이나 문의 하신 점이 있으시면 언제든지 댓글 및 방명록에 글 남겨주시길 바랍니다. 감사합니다.
'Python > Python Crawler[크롤러]' 카테고리의 다른 글
Python[파이썬 웹크롤러] 05-WebCrawler beautifulsoup4(뷰티풀 수프) 웹페이지(HTML)를 파싱하기(Parsing) (0) | 2020.10.24 |
---|---|
Python[파이썬 웹크롤러] 04-WebCrawler beautifulsoup4(뷰티풀 수프)설치하기 (0) | 2020.10.22 |
Python[파이썬 웹크롤러] 03-WebCrawler 사이트의 내용(Html) 읽어오기(requests) (0) | 2020.07.24 |
Python[파이썬 웹크롤러] 02-WebCrawler 사이트의 헤더 읽어오기(requests) (0) | 2020.07.22 |
Python[파이썬 웹크롤러] 01-WebCrawler 웹사이트 접속 확인하기(requests) (0) | 2020.07.14 |