일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- 글쓰기기능
- 랜덤번호
- 장고로그인회원가입
- 장고
- path converter
- modelform
- 장고수정기능
- 템플릿변수
- CRUD
- namespace
- DjangoAdmin
- extends
- 모델폼
- 쿼리셋
- DjangoUsers
- 템플릿태그
- django
- 템플릿필터
- 파이썬
- detail page 만들기
- 검색기능
- 템플릿상속
- queryset
- 장고유저모델
- Python
- get object or 404
- 장고어드민
- DjangoModel
- 웹페이지제작
- 장고모델
- Today
- Total
목록분류 전체보기 (14)
하루에는
Overview 개발환경 셋팅 장고 기초 설명 미리 설치해야 할 것 Git bash Python (3.7 이상) VSCode 등 텍스트 에디터 Django python 기반 웹 어플리케이션 프레임워크 MTV 패턴 admin 기능 제공 쉬운 URL 파싱 제공 VSCode 세팅하기 code .를 치면 현재 디렉터리에서 VSCode 실행됨 가상 환경 장고 프로젝트마다 가상 환경을 생성해서 관리 장고 프로젝트를 담는 통 가상환경을 켜고 설치한 패키지들은 가상 환경에서만 영향을 미침 장고 프로젝트별로 가상환경을 설치해야 함 터미널 명령어 모음 가상환경 만들기 python -m venv myvenv 가상환경 실행(source는 .으로 대체 가능) source myvenv/Scripts/activate # 윈도우 s..
먼저 $ pip install google_images_download 를 진행해야 한다. # downloader.py from google_images_download import google_images_download def imageCrawling(keyword, directory): response = google_images_download.googleimagesdownload() arguments = { "keywords": keyword, "limit": 10, "print_urls": True, "no_directory": True, "output_directory": directory } paths = response.download(arguments) print(path) imageC..
아래에 보이는 지식인 질문 제목들을 긁어오는 크롤러를 만들어 보겠습니다. 프로젝트를 하나 생성해주세요. 배쉬창에 $ rails new 프로젝트명 을 입력합니다.1$ rails new crawling cs 1. bash 창에 출력하기 ruby파일을 하나 생성해줍니다. 저는 crawling.rb 파일을 하나 생성했습니다. 루비 파일에 다음과 같이 써줍니다. doc = Nokogiri::HTML(open(주소))주소에는 긁어올 사이트의 주소를 써주세요. 저는 말씀드린대로 지식인 Q&A 페이지를 가져왔습니다. 1234# crawling.rb require 'open-uri'require 'nokogiri' doc = Nokogiri::HTML(open("https://kin.naver.com/qna/list.n..