[dexonline] Ticket #241 :Crawler definitii

Catalin Francu cata at francu.com
Sat Nov 5 21:51:41 EET 2011


Salut Vlad,

> Cum am putea sa rulam codul nostru de mai multe ori in mod automat la un anumit interval de timp  ? Ne-am gandit la un fel de iterare in cadrul codului nostru , dar nu sunt sigur daca e cea mai buna solutie . Am luat in considerare si ideea rularii scriptului prin intermediul crontab . Daca s-ar putea "a piece of advice " cam cum ar fi cel mai bine sa implementam asta .

Clar prin crontab. Dacă faceți un script care să ruleze o dată, mă
ocup eu să-l adaug în crontab pe server. Vă puteți uita prin
tools/cron/crontab-main ca să vă faceți o idee despre ce mai rulează
periodic pe server.

>  Ar fi indicat ca site-urile care nu au licenta sau nu fac parte din cadrul dexonline sa le salvam in cadrul unui fisier de log sa zicem ? ( de unde si ideea ca ne-am putea folosi de crontab ) .

Cred că nu e neapărat nevoie de logging. Dacă faceți un program care
să scuipe ceva rezonabil la stdout, pot face eu prin crontab să-mi fie
trimis un email cu outputul programului vostru.

>         if ( ($req_site .= file_get_contents ( $iter->url ) ) == false )

O soluție barbară, dar bună, este un @file_get_contents() în loc de
file_get_contents() pentru a suprima warningurile. Vedeți și
http://php.net/manual/en/language.operators.errorcontrol.php

Spor la lucru!
Cătălin


More information about the dexonline mailing list