httplib2

    0

    1답변

    그래서 나는 https2를 통해 압축 된 파일을 Python 3.2에 게시하고 있습니다. 나는 다음과 같은 오류 얻을 : 난 그냥 xml 파일을 게시하는 데 사용 io.UnsupportedOperation: fileno 을하지만, 그 파일이 너무 큰지고 있기 때문에 내가 먼저 메모리 내부를 압축하고 싶습니다. 내가 메모리에 압축 파일 생성 방법 이입니다 c

    0

    2답변

    스크립트의 처음 몇 줄은 구조와 메커니즘을 설명합니다. 제가 직면 한 문제는 실행이 53 행에 걸려 있다는 것입니다. 일단 Downloader가 첫 번째 요청에 대해 작동하면 API가 올바르게 생성되지만 http_object.request(audioscrobbler_api)에 도달하면 막히게됩니다. 스크립트가 다른 시스템에서 코딩되고 테스트되었으며 올바른

    1

    1답변

    http를 통해 json을 수락하고 데이터를 처리 한 다음 json을 요청한 클라이언트로 되 돌리는 jsonrpc2 서버를 만들려고합니다. 나는 rpc 서버와 wsgi에 상당히 익숙하며 django와 같은 웹 프레임 워크의 일부로 만 사용했습니다. jsonrpc2 설명서에 제공된 예제를 따르려고합니다. 첫 번째 단계는 서비스 나 서비스가 내가 원격 시스템에

    -1

    1답변

    IP 주소가 10.91.55.2 인 서버로 VM을 보유하고 있습니다. 10.91.56.2 ...... 10.91.56.10 범위의 IP 주소를 가진 클라이언트 역할을하는 또 다른 VM이 있습니다. 클라이언트 (10.91.55.2)에 HTTP 요청을 보내기 위해이 IP 주소를 모두 사용하는 스크립트를 작성하고 싶습니다. 물리적 IP 주소 만 사용하여 HTTP

    0

    1답변

    httplib2.Http 클래스의 요청 메소드가 어떤 매개 변수를 사용하는지 궁금합니다. 나는 간단한 get 메소드를 사용하려고 노력하고 있지만 SSL3_GET_SERVER_CERTIFICATE 오류가 발생하기 때문에 사용하는 url이 확인을 필요로하는 인증서를 제공하는 것처럼 보입니다. 그래서 httplib2 라이브러리로 인증서 확인을 무시하라는 요청을

    -1

    1답변

    URL을 사용하여 페이지의 <title> 태그 값을 반환하는 스크립트가 있습니다. 몇 백 정도 실행 후, 나는 항상 같은 오류가 발생합니다 : def get_title(pageurl): http = httplib2.Http() status, response = http.request(pageurl) x = BeautifulSoup

    1

    1답변

    httplib2을 사용하여 웹 페이지에 로그인하려고합니다. 나는 단순히 창 Chrome 시크릿에서 다음 URL을 열어 페이지에 로그인 할 생각은 : 불행하게도,이 from httplib2 import Http h = Http(disable_ssl_certificate_validation=True) resp, content = h.request('http

    1

    1답변

    프로젝트 인터프리터를 사용하여 jetbrains pycharm에 httplib2 라이브러리 for google을 설치했습니다. 이제 다음 줄에서 오류가 해결되지 않은 참조로 제공됩니다. from apiclient.discovery import build from oauth2client.client import flow_from_clientsecrets

    1

    1답변

    나는 지금 꽤 귀찮은 문제가 있습니다. 너무 큰 페이지로 httplib2.request를 처리 할 때 나는 그것을 깔끔하게 멈추고 싶습니다. 예를 들어 :이 예에서 from httplib2 import Http url = 'http://media.blubrry.com/podacademy/p/content.blubrry.com/podacademy/Neuro

    0

    1답변

    주어진 URL에서 페이지 내용을 가져 오는이 코드 조각이 있습니다. 당신이 보았다시피 Traceback (most recent call last): File "C:\Documents and Settings\DD\Desktop\crawler.py", line 15, in <module> resp, content = h.request(start_url