आप curl का उपयोग कर स्थानीय पेज डाउनलोड कर सकते हैं और फिर एक स्थानीय सत्यापनकर्ता का उपयोग कर उसे सत्यापित करने या W3 Validator या अपनी पसंद के ऑनलाइन एचटीएमएल सत्यापनकर्ता को curl
का उपयोग कर फिर से पोस्ट। या आप कुछ स्क्रिप्टिंग भाषा में एक साधारण वेब मकड़ी लिख सकते हैं और स्थानीय वेब को क्रॉल कर सकते हैं, प्रत्येक पेज को क्रॉल के रूप में मान्य कर सकते हैं। पर्ल में नमूना क्रॉलर वर्ग:
package Test::Crawler;
use Moose;
use WWW::Mechanize;
has client => (
is => 'ro',
isa => 'WWW::Mechanize',
default => sub { WWW::Mechanize->new },
);
has handler => (
is => 'ro',
isa => 'CodeRef',
default => sub {},
);
sub crawl
{
my ($self, $url, $visited) = (@_, {});
# Already seen that.
return if $visited->{$url}++;
# Not seen yet, get.
$self->client->get($url);
$self->handler->($url, $self->client);
# Follow all links.
my @uris = map { $_->URI } $self->client->links;
for my $uri (@uris) {
# Skip mailtos, ftp and such.
next if $uri->scheme;
# Skip external links.
next if $uri->host;
$self->crawl($uri->rel, $visited);
}
}
और एक नमूना उप validator.nu का उपयोग कर प्रमाणित करने के लिए:
sub is_valid {
my ($code, $page_url) = @_;
my $ua = LWP::UserAgent->new;
my $url = 'http://validator.nu/?out=gnu';
my $response = $ua->post($url, Content_Type => 'text/html', Content => $code);
return $response->as_string !~ /error/;
}
+1, मैं पहले कभी उस उपकरण में नहीं आया था। =) –
धन्यवाद ehejh यह मेरे जीवन को बचाया! –