Linux系統在使用的時候,電腦變的很卡,發現是php-cgi進程在占用cpu,占用率既然達到了100%,究竟是什麼原因導致這種情況的呢?下面小編就給大家介紹下Linux系統php-cgi占用cpu百分百的解決方法。
網站日志目錄/home/hosts_log
日志文件有對應的網站id
php-cgi日志目錄 /usr/local/php_fcgi/logs
php-fpm.log
slow.log
查看日志文件基本上就可以解決問題了,網站被入侵上傳了一個php ddos文件,當然如果不是此問題可以如下查看是不是程序問題有時使用file_get_contents函數也可能導致cpu 100%。
在php.ini 中,有一個參數 max_execution_time 可以設置PHP 腳本的最大執行時間,但是,在 php-cgi(php-fpm)中,該參數不會起效。真正能夠控制PHP 腳本最大執行時間的是php-fpm.conf 配置文件中的以下參數:
The timeout (in seconds) for serving a single request after which the worker process will be terminated
Should be used when ‘max_execution_time’ ini option does not stop script execution for some reason
‘0s’ means ‘off’
《value name=“request_terminate_timeout”》0s《/value》
默認值為0秒,也就是說,PHP 腳本會一直執行下去。這樣,當所有的php-cgi 進程都卡在file_get_contents()函數時,這台Nginx+PHP 的WebServer已經無法再處理新的PHP 請求了,Nginx 將給用戶返回“502 Bad Gateway”。修改該參數,設置一個PHP 腳本最大執行時間是必要的,但是,治標不治本。例如改成《value name=“request_terminate_timeout”》30s《/value》,如果發生file_get_contents()獲取網頁內容較慢的情況,這就意味著150 個php-cgi 進程,每秒鐘只能處理 5 個請求,WebServer同樣很難避免“502 Bad Gateway”。
要做到徹底解決,只能改掉直接使用file_get_contents的習慣,而是稍微修改一下,加個超時時間,用以下方式來實現 HTTP GET 請求。要是覺得麻煩,可以自行將以下代碼封裝成一個函數。
《?php
$ctx = stream_context_create(array(
‘http’ =》 array(
‘timeout’ =》 1 //設置一個超時時間,單位為秒
)
)
);
file_get_contents(“http://www.111cn.net/”, 0, $ctx);
?》
當然如果像dedecms生成html頁面時cpu也會100%的情況。
Linux下php-cgi進程占用cpu百分百的解決方法就介紹到這裡了,還有一種可能是中毒導致的,這就需要殺毒處理了。