일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- javascript
- 리눅스
- DB
- 아틀라시안
- PostgreSQL
- python
- 데이터베이스
- 자바
- 자바스크립트
- hamonikr
- 노드
- postgres
- Linux
- java
- 설정
- 3.0
- 설치
- Windows
- ubuntu
- JS
- 스크립트
- 하모니카
- install
- 우분투
- node
- Atlassian
- DATABASE
- 파이썬
- 윈도우
- script
Archives
- Today
- Total
LukeHan 의 잡다한 기술 블로그
Python crawling 기본 설정 본문
반응형
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
import chromedriver_autoinstaller
import subprocess
driver_path = 'C://webdriver/chromedriver.exe'
chrome_path = 'C://Program Files/Google/Chrome/Application/chrome.exe'
chrome_temp_path = 'C://chrometemp'
# set ChromeDriver
for_debug = chrome_path + ' --remote-debugging-port=9222 --user-data-dir="' + chrome_temp_path + '"'
subprocess.Popen(for_debug) # 디버거 크롬 구동
def connection():
print('[connection]')
option = Options()
option.add_experimental_option("debuggerAddress", "127.0.0.1:9222")
chrome_ver = chromedriver_autoinstaller.get_chrome_version().split('.')[0]
try:
driver = webdriver.Chrome(driver_path, options=option)
except:
chromedriver_autoinstaller.install(True)
driver = webdriver.Chrome(driver_path, options=option)
driver.implicitly_wait(1)
return driver
def main():
driver = connection()
driver.get('https://naver.com')
main()
Python Crawling 을 위한 기본 설정 정보
해당 설정을 적용하여 구동하면 이전 Crawling 시 정보가 유지된다.
초기화가 필요한 경우 chrome_temp_path 를 삭제한다.
반응형
Comments