我的网站可以同时处理40,000人或更多的访问并且运行速度很快,但是搜索引擎爬虫会导致mysql崩溃。这使我感到非常疯狂,因为一旦爬虫来了,网站就会显示“无法连接:连接过多”,我必须手动重启mysqld才能恢复网站。我已经解决这个问题已经有一年了。我对Apache和MySQL进行了多次调整,但似乎没有什么作用。我将max_connections从300改为1800、10000,但这并不能解决爬虫的问题。
我使用Amazon Linux,并拥有一个巨大的实例/服务器。内存不是问题。我已经做了无数的技术支持,他们从未发现任何问题。所以我必须认为这与我的编程有关。我没有使用WordPress,我是从零开始构建我的网站,但正如我所说,它可以轻松处理40,000人的访问。但是爬虫会导致它崩溃。
我的连接脚本很简单:
我使用Amazon Linux,并拥有一个巨大的实例/服务器。内存不是问题。我已经做了无数的技术支持,他们从未发现任何问题。所以我必须认为这与我的编程有关。我没有使用WordPress,我是从零开始构建我的网站,但正如我所说,它可以轻松处理40,000人的访问。但是爬虫会导致它崩溃。
我的连接脚本很简单:
$connect=mysql_connect("localhost","user","password");
if (!$connect)
{
die('Could not connect: ' . mysql_error());
}
mysql_select_db("db",$connect);
奇怪的是,即使网站上有2000人,当前连接始终是“1”。所以我觉得我在连接数据库方面做错了什么。
有没有人有经验或建议,如何应对大量机器人流量,让网站始终保持运行状态?拜托了!我再次声明,这不是增加max_connections的问题。