2021. 12. 22. 01:36ㆍData Crawling
[ Data Crawling ]
이번 포스팅은 Selenium을 이용하여 element에 값을 보내고 element를 클릭하여 데이터를 읽어오는 방법에 대해서 포스팅을 진행하도록 하겠습니다.
※ 해당 포스팅은 Chrome browser 기준으로 진행하였습니다.
이번 포스팅을 하기전 아래 링크를 참고하시면 이해에 도움이 될 수 있습니다.
https://mr-doosun.tistory.com/37
[Selenium] Element를 이용하여 Text 데이터 가져오기 (온도 데이터 가져오기) [Data Crawling] [2]
[ Data Crawling ] 이번 포스팅은 Web에서 Text 데이터를 읽어오는 방법에 대해서 포스팅을 하겠습니다. ※ 해당 포스팅은 Chrome browser 기준으로 진행하였습니다. 이번 포스팅의 코드는 아래 링크의 코
mr-doosun.tistory.com
https://mr-doosun.tistory.com/35
[Selenium] Python Web Crawling 위한 Browser 세팅하기 [Data Crawling] [1]
[ Data Crawling ] 이번 포스팅은 Data 수집 방법인 웹 크롤링에 대해서 포스팅을 할 것이고, 많은 웹 크롤링 방법중 Selenium을 활용하여 데이터 수집하는 방법에 대해서 포스팅을 하겠습니다. Selenium은
mr-doosun.tistory.com
[ 준비 ]
(참고) Naver를 이용하여 포스팅을 진행하겠습니다.
우선 (1)과 (2)의 XPath를 가져옵니다.

우선 검색을 할 Naver를 호출 해줍니다.
driver.get(url='https://www.naver.com/')
이전에 복사한 xpath값을 아래코드에 넣어줍니다
search_box = driver.find_element_by_xpath('//*[@id="query"]')
search_button = driver.find_element_by_xpath('//*[@id="search_btn"]')
검색 창 Element를 가지고있는 변수는 send_keys() 함수를,
검색 창에 입력이 되면 검색을 진행 할 버튼은 click() 함수를 사용해줍니다.
search_word = '셀레니움'
search_box.send_keys(search_word)
search_button.click()
[ 결과 ]

이상 포스팅을 마치겠습니다.
[ 완성된 코드 ]
https://github.com/Mr-DooSun/Selenium-WebCrawling/blob/main/Ex3_sendkey_click/ex3_sendkey_click.py
GitHub - Mr-DooSun/Selenium-WebCrawling
Contribute to Mr-DooSun/Selenium-WebCrawling development by creating an account on GitHub.
github.com