0
1000 개 이상의 URL 목록에서 웹 페이지의 본문을 가져오고 싶습니다. (내 목표는 cheerio를 사용하여 근근이 살아가는 것입니다.) 문제는 내가 이상한 GUNZIP 결과을 얻었고 body 태그의 내용을 가져올 수 없다는 것입니다. 이node js 비동기 요청이 웹 페이지의 본문을 가져 오지 않습니다.
var async = require('async');
var fetch = require('isomorphic-unfetch');
const cheerio = require('cheerio');
let urls= // reading a list of ~1000 URLs from JSON file
async.mapLimit(urls, 1, async function(url) {
const response = await fetch(url);
return response.body
}, (err, results) => {
if (err) throw err
console.log(results);
});
더 많은 정보가 필요하다고 생각합니다. 예를 들어 이상한 gunzip 결과는 무엇입니까? 이 모든 것이거나 하나의 URL입니까? 이것과 관련이있을 수 있습니다 : [link] (https://stackoverflow.com/questions/12148948/how-do-i-ungzip-decompress-a-nodejs-requests-module-gzip-response-body) –