我正在尝试使用不同的User-Agent爬取一些域名。我的爬虫工作正常,但当一个域名没有SSL证书且不安全时,就会出现问题,此时我使用
通过这种解决方案,我对所有这些域名都得到了301 ,这感觉像是我的
以下是我的代码:
HttpHandler
并自己设置证书来跳过这个问题。通过这种解决方案,我对所有这些域名都得到了301 ,这感觉像是我的
AllowAutoRedirect
为false,但实际上并非如此。我尝试将MaxAutomaticRedirections指定为5,但也没有起作用。以下是我的代码:
public Task<int> Crawl(string userAgent, string url)
{
var handler = new HttpClientHandler();
handler.ClientCertificateOptions = ClientCertificateOption.Manual;
handler.ServerCertificateCustomValidationCallback =
(httpRequestMessage, cert, cetChain, policyErrors) =>
{
return true;
};
var httpClient = new HttpClient(handler);
httpClient.DefaultRequestHeaders.Add("User-Agent", userAgent);
var statusCode = (int)(await httpClient.SendAsync(new HttpRequestMessage(HttpMethod.Get, URL))).StatusCode;
return statusCode;
}
ClientCertificationOption.Manual
吗? - keenthinker