[dexonline] Ticket #241 :Crawler definitii
Catalin Francu
cata at francu.com
Sat Nov 5 21:51:41 EET 2011
Salut Vlad,
> Cum am putea sa rulam codul nostru de mai multe ori in mod automat la un anumit interval de timp ? Ne-am gandit la un fel de iterare in cadrul codului nostru , dar nu sunt sigur daca e cea mai buna solutie . Am luat in considerare si ideea rularii scriptului prin intermediul crontab . Daca s-ar putea "a piece of advice " cam cum ar fi cel mai bine sa implementam asta .
Clar prin crontab. Dacă faceți un script care să ruleze o dată, mă
ocup eu să-l adaug în crontab pe server. Vă puteți uita prin
tools/cron/crontab-main ca să vă faceți o idee despre ce mai rulează
periodic pe server.
> Ar fi indicat ca site-urile care nu au licenta sau nu fac parte din cadrul dexonline sa le salvam in cadrul unui fisier de log sa zicem ? ( de unde si ideea ca ne-am putea folosi de crontab ) .
Cred că nu e neapărat nevoie de logging. Dacă faceți un program care
să scuipe ceva rezonabil la stdout, pot face eu prin crontab să-mi fie
trimis un email cu outputul programului vostru.
> if ( ($req_site .= file_get_contents ( $iter->url ) ) == false )
O soluție barbară, dar bună, este un @file_get_contents() în loc de
file_get_contents() pentru a suprima warningurile. Vedeți și
http://php.net/manual/en/language.operators.errorcontrol.php
Spor la lucru!
Cătălin
More information about the dexonline
mailing list