주어진 위키피디아 페이지에서 다른 위키피디아 기사 및 모든 해당 카테고리로 모든 나가는 링크를 얻으려고합니다.왜이 위키 백과 mediawiki API 요청은 카테고리를 모든 링크로 반환하지 않습니까?
어쨌든 많은 페이지는 분명히 일부 페이지에 속하지만 카테고리가없는 경우에도 반환됩니다. 체계적이지 않은 것처럼 보입니다. 즉 카테고리없이 반환 된 페이지가 항상 동일하지는 않습니다. 경우 누군가에
# -*- coding: utf-8 -*-
import urllib.request
import urllib.parse
import json
def link_request(more_parameters={"continue": ""}):
parameters = {"format": "json",
"action": "query",
"generator": "links",
"gpllimit": "max",
"gplnamespace": "0",
"prop": "categories",
"cllimit": "max",
"titles": urllib.parse.quote(start_page.encode("utf8"))}
parameters.update(more_parameters)
queryString = "&".join("%s=%s" % (k, v) for k, v in parameters.items())
# This ensures that redirects are followed automatically, documented here:
# http://www.mediawiki.org/wiki/API:Query#Resolving_redirects
queryString = queryString+"&redirects"
url = "http://%s.wikipedia.org/w/api.php?%s" % (wikipedia_language, queryString)
print(url)
#get json data from wikimedia API and make a dictionary out of it:
request = urllib.request.urlopen(url)
encoding = request.headers.get_content_charset()
jsonData = request.read().decode(encoding)
data = json.loads(jsonData)
return data
def get_link_data():
data=link_request()
query_result=data['query']['pages']
while 'continue' in data.keys():
continue_dict=dict()
for key in list(data['continue'].keys()):
if key == 'continue':
continue_dict.update({key: data['continue'][key]})
else:
val= "|".join([urllib.parse.quote(e) for e in data['continue'][key].split('|')])
continue_dict.update({key: val})
data=link_request(continue_dict)
query_result.update(data['query']['pages'])
print(json.dumps(query_result, indent=4))
start_page="Albert Einstein"
wikipedia_language="en"
get_link_data()
가 궁금해 : 그것은 내가 할 수있는
다음의 예는 최소한 계속 물건은 여기에 설명 : http://www.mediawiki.org/wiki/API:Query#Continuing_queries