Виклик асинхронної функції в PHP


86

Я працюю над веб-додатком PHP, і мені потрібно виконати деякі мережеві операції у запиті, наприклад, вилучити когось із віддаленого сервера на основі запиту користувача.

Чи можна імітувати асинхронну поведінку в PHP, враховуючи те, що я повинен передавати деякі дані функції, а також потребувати виводу з неї.

Мій код такий:

<?php

     $data1 = processGETandPOST();
     $data2 = processGETandPOST();
     $data3 = processGETandPOST();

     $response1 = makeNetworkCall($data1);
     $response2 = makeNetworkCall($data2);
     $response3 = makeNetworkCall($data3);

     processNetworkResponse($response1);
     processNetworkResponse($response2);
     processNetworkResponse($response3);

     /*HTML and OTHER UI STUFF HERE*/

     exit;
?>

Кожна мережева операція займає близько 5 секунд, щоб додати загалом 15 секунд до часу відповіді моєї програми, якщо я роблю 3 запити.

Функція makeNetworkCall () просто робить запит HTTP POST.

Віддалений сервер - це сторонній API, тому я не можу там контролювати.

PS: Будь ласка, не відповідайте, даючи пропозиції щодо AJAX чи інших речей. На даний момент я шукаю, чи можу я це зробити за допомогою PHP, можливо, з розширенням C ++ або чимось подібним.


Спробуйте використати CURLдля запуску запитів та отримання деяких даних з Інтернету ...
Богдан Бурим

Я вважаю, що відповідь лежить тут: stackoverflow.com/questions/13846192/… Коротке зауваження: використовуйте
різьбу


Ви можете використовувати PHP- функцію stream_select для запуску неблокуючого коду. Реагувати використовує це , щоб створити петлю , керовані події , схожу на Node.js .
Quinn Comendant

Відповіді:


20

На сьогоднішній день краще використовувати черги, ніж потоки (для тих, хто не використовує Laravel, існує безліч інших реалізацій, подібних до цього ).

Основна ідея полягає в тому, що ваш оригінальний PHP-скрипт ставить завдання або завдання в чергу. Тоді у вас є чергові працівники, які працюють в іншому місці, виймаючи завдання з черги і починаючи обробляти їх незалежно від вихідного PHP.

Переваги:

  1. Масштабованість - ви можете просто додати робочі вузли, щоб не відставати від попиту. Таким чином завдання виконуються паралельно.
  2. Надійність - сучасні менеджери черг, такі як RabbitMQ, ZeroMQ, Redis тощо, зроблені надзвичайно надійними.


8

У мене немає прямої відповіді, але ви можете розглянути ці речі:


3

cURL стане для вас єдиним реальним вибором тут (або це, або з використанням неблокуючих сокетів та певної власної логіки).

Це посилання повинно направити вас у правильному напрямку. У PHP не існує асинхронної обробки, але якщо ви намагаєтесь зробити кілька одночасних веб-запитів, cURL multi подбає про це.


2

Я думаю, що якщо HTML та інші матеріали інтерфейсу потребують повернення даних, тоді не буде способу їх асинхронувати.

Я вважаю, що єдиним способом зробити це в PHP було б реєструвати запит у базі даних і перевіряти cron щохвилини, або використовувати щось на зразок обробки черги Gearman, або, можливо, exec () процес командного рядка

Тим часом вам на php-сторінці доведеться згенерувати html або js, що змушує її перезавантажуватися кожні кілька секунд для перевірки прогресу, а не ідеально.

Щоб обійти проблему, скільки різних запитів ви очікуєте? Чи можете ви завантажити їх автоматично щогодини або близько того і зберегти у базі даних?



0

Я думаю, що тут потрібен деякий код про рішення cURL, тому я поділюсь своїм (він був написаний, змішуючи кілька джерел як Посібник PHP та коментарі).

Він виконує паралельні HTTP-запити (домени в $aURLs) і друкує відповіді, коли кожен із них завершено (і зберігає їх $doneдля інших можливих потреб).

Код довший, ніж потрібно, оскільки частина друку в реальному часі та надлишок коментарів, але не соромтеся редагувати відповідь, щоб покращити його:

<?php
/* Strategies to avoid output buffering, ignore the block if you don't want to print the responses before every cURL is completed */
ini_set('output_buffering', 'off'); // Turn off output buffering
ini_set('zlib.output_compression', false); // Turn off PHP output compression       
//Flush (send) the output buffer and turn off output buffering
ob_end_flush(); while (@ob_end_flush());        
apache_setenv('no-gzip', true); //prevent apache from buffering it for deflate/gzip
ini_set('zlib.output_compression', false);
header("Content-type: text/plain"); //Remove to use HTML
ini_set('implicit_flush', true); // Implicitly flush the buffer(s)
ob_implicit_flush(true);
header('Cache-Control: no-cache'); // recommended to prevent caching of event data.
$string=''; for($i=0;$i<1000;++$i){$string.=' ';} output($string); //Safari and Internet Explorer have an internal 1K buffer.
//Here starts the program output

function output($string){
    ob_start();
    echo $string;
    if(ob_get_level()>0) ob_flush();
    ob_end_clean();  // clears buffer and closes buffering
    flush();
}

function multiprint($aCurlHandles,$print=true){
    global $done;
    // iterate through the handles and get your content
    foreach($aCurlHandles as $url=>$ch){
        if(!isset($done[$url])){ //only check for unready responses
            $html = curl_multi_getcontent($ch); //get the content           
            if($html){
                $done[$url]=$html;
                if($print) output("$html".PHP_EOL);
            }           
        }
    }
};

function full_curl_multi_exec($mh, &$still_running) {
    do {
      $rv = curl_multi_exec($mh, $still_running); //execute the handles 
    } while ($rv == CURLM_CALL_MULTI_PERFORM); //CURLM_CALL_MULTI_PERFORM means you should call curl_multi_exec() again because there is still data available for processing
    return $rv;
} 

set_time_limit(60); //Max execution time 1 minute

$aURLs = array("http://domain/script1.php","http://domain/script2.php");  // array of URLs

$done=array();  //Responses of each URL

    //Initialization
    $aCurlHandles = array(); // create an array for the individual curl handles
    $mh = curl_multi_init(); // init the curl Multi and returns a new cURL multi handle
    foreach ($aURLs as $id=>$url) { //add the handles for each url        
        $ch = curl_init(); // init curl, and then setup your options
        curl_setopt($ch, CURLOPT_URL, $url);
        curl_setopt($ch, CURLOPT_RETURNTRANSFER,1); // returns the result - very important
        curl_setopt($ch, CURLOPT_HEADER, 0); // no headers in the output
        $aCurlHandles[$url] = $ch;
        curl_multi_add_handle($mh,$ch);
    }

    //Process
    $active = null; //the number of individual handles it is currently working with
    $mrc=full_curl_multi_exec($mh, $active); 
    //As long as there are active connections and everything looks OK…
    while($active && $mrc == CURLM_OK) { //CURLM_OK means is that there is more data available, but it hasn't arrived yet.  
        // Wait for activity on any curl-connection and if the network socket has some data…
        if($descriptions=curl_multi_select($mh,1) != -1) {//If waiting for activity on any curl_multi connection has no failures (1 second timeout)     
            usleep(500); //Adjust this wait to your needs               
            //Process the data for as long as the system tells us to keep getting it
            $mrc=full_curl_multi_exec($mh, $active);        
            //output("Still active processes: $active".PHP_EOL);        
            //Printing each response once it is ready
            multiprint($aCurlHandles);  
        }
    }

    //Printing all the responses at the end
    //multiprint($aCurlHandles,false);      

    //Finalize
    foreach ($aCurlHandles as $url=>$ch) {
        curl_multi_remove_handle($mh, $ch); // remove the handle (assuming  you are done with it);
    }
    curl_multi_close($mh); // close the curl multi handler
?>

0

Один із способів - використання pcntl_fork()в рекурсивній функції.

function networkCall(){
  $data = processGETandPOST();
  $response = makeNetworkCall($data);
  processNetworkResponse($response);
  return true;
}

function runAsync($times){
  $pid = pcntl_fork();
  if ($pid == -1) {
    die('could not fork');
  } else if ($pid) {
    // we are the parent
    $times -= 1;
    if($times>0)
      runAsync($times);
    pcntl_wait($status); //Protect against Zombie children
  } else {
    // we are the child
    networkCall();
    posix_kill(getmypid(), SIGKILL);
  }
}

runAsync(3);

Одна річ pcntl_fork()полягає в тому, що під час запуску сценарію за допомогою Apache він не працює (він не підтримується Apache). Отже, одним із способів вирішити цю проблему є запуск сценарію за допомогою php cli, наприклад: exec('php fork.php',$output);з іншого файлу. Для цього у вас буде два файли: один, який завантажується Apache, і один, який запускається exec()зсередини файлу, завантаженого Apache, так:

apacheLoadedFile.php

exec('php fork.php',$output);

fork.php

function networkCall(){
  $data = processGETandPOST();
  $response = makeNetworkCall($data);
  processNetworkResponse($response);
  return true;
}

function runAsync($times){
  $pid = pcntl_fork();
  if ($pid == -1) {
    die('could not fork');
  } else if ($pid) {
    // we are the parent
    $times -= 1;
    if($times>0)
      runAsync($times);
    pcntl_wait($status); //Protect against Zombie children
  } else {
    // we are the child
    networkCall();
    posix_kill(getmypid(), SIGKILL);
  }
}

runAsync(3);
Використовуючи наш веб-сайт, ви визнаєте, що прочитали та зрозуміли наші Політику щодо файлів cookie та Політику конфіденційності.
Licensed under cc by-sa 3.0 with attribution required.