3.7 KiB
Crawler Log Analyse
Dienstag, 21. März 2017
11:48
$name= Read-Host "Search service application Namen eintragen"
$ssa=get-SPEnterpriseSearchServiceApplication -Identity $name
$crawlLog = new-object Microsoft.Office.Server.Search.Administration.CrawlLog($ssa)
$getcountonly = $false;
$maxrows=500;
$querystring=Read-Host "Abfrage-String, um URLs zurückzugeben, die mit diesem übereinstimmen"
$islike=$false
Get-SPEnterpriseSearchCrawlContentSource -SearchApplication $ssa
$contentsourceId=Read-host "Gib einen der Inhaltsquellen aus der obigen Ausgabe ein oder setze -1, um zu allen Inhaltsquellen zurückzukehren"
$errorlevel=-1
$errorid=-1
$startdate = read-host "Enter Date in format 02/25/2017 11:00 AM"
$enddate=read-host "Enter Date in format 03/21/2017 11:00 PM"
$log=$crawlLog.GetCrawledUrls($getcountonly, $maxrows, $querystring, $islike, $contentsourceId, $errorlevel, $errorid, $startdate, $enddate)
$log
##################################################################################################################################################################################
Write-Host -ForegroundColor cyan 'Holt sich per-Crawl-Statistiken die neusten Crawls, für die angegebene Content-Quelle. Wenn eine negative Zahl für die Inhaltsquelle geliefert wird, werden Crawls für alle Inhaltsquellen übermittelt'
$contentsourceId=Read-Host "Eingabe Content Source ID"
$numberofcrawls=Read-host "Nummer"
$crawlLog.GetCrawlHistory($numberofcrawls, $contentsourceId)
#######################################################################################################################################################################################
Write-Host -ForegroundColor cyan 'Holt sich die Anzahl der crawled items'
$querystring =Read-host "query string"
$contentsourceId=Read-host "content source Id"
$crawlLog.GetCrawledUrlCount($querystring, $islike, $contentsourceId, $errorlevel, $errorid, $startdate, $enddate)
##########################################################################################################################################################################################
Write-Host -ForegroundColor cyan 'Recrawl Document mit Dokumenten ID"DOCID" oder Url'
$docid=Read-Host "Docid"
$documenturl=Read-Host "document Url"
$crawlLog.RecrawlDocument($docid)
$crawlLog.RecrawlDocument($documenturl)
###########################################################################################################################################################################################
Write-Host -ForegroundColor cyan 'Dokument wird entfernt mit DOCID oder URL'
$docid=Read-Host "Docid"
$documenturl=Read-Host "Document url"
$crawlLog.RemoveDocumentFromSearchResults($docid)
$crawlLog.RemoveDocumentFromSearchResults($documenturl)
###########################################################################################################################################################################################
Write-Host -ForegroundColor cyan 'Überprüfung der Löschung'
$docid=Read-Host "Docid"
$crawlLog.CheckIfItemRemoved($docid)
###########################################################################################################################################################################################
Write-Host -ForegroundColor cyan 'Crawl Fehler erhalten für bestimmte Content ID'
$contentsourceId =Read-Host "Contentsource id"
$hostid=Read-Host "Eingabe -1 wenn für alle" Host
$crawlLog.GetCrawlErrors($contentsourceId, $hostid)