domains versauen umija SE Präsenz
mehrere suchmaschinen) werden auf das haupt-tikiwiki aufgelöst, darum bekommen die Seiten eigenen cache in den ((umija:www)
zB open-craft.de/20030600 -->301 (permanent) weiterleitung holz-energie.org/20060227 --> 404 nachdem alles an die .info geleitet wird .... mwiki.umija.org/20051337:gigaLAN -- >301 zu umija.org (resultierend aus subdomain Regelung)
alle anderen domains sollte ihre robots.txt haben!
http://umija.org/robots.txt - OK http://umija.net/robots.txt - 301 (permanent) weiterleitung http://umija.com/robots.txt - OK http://umija.de/robots.txt - OK http://klml.de/robots.txt - leg mal deine robots.txt in das umija.org/file/klml verz. ab. war auch so besprochen! brauch ich net, da klml.de nen 301 bekommt. dis: Ja klar bekommt der 301 und deswegen soll die robots.txt nicht bei strato hinterlegt werden sondern bei umija eben in dem file/klml verz. Auch wenn du nichts ausschließen willst, nach robots.txt fragt jeder bot! http://stylebrunch.de/robots.txt - OK http://opencraft.de/robots.txt - todo, da noch kein Eintrag http://open-craft.de/robots.txt - todo, da noch kein Eintrag http://holz-energie.org/robots.txt - Müsste jetzt gehen http://holz-energie.info/robots.txt - OK http://nur-auf-rechnung.de/robots.txt - OK http://blue-ray-kaufen.de/robots.txt - OK
Subdomains
edma: die subdomains geben den umija inhalt wieder, also egal was du vorhin eingibst! Ich würde vorschlagen dass wir alle subdomains mit 302/301 (weiß nicht was sinnvoller ist) an umija.org weiterleiten.
klml: ja das wäre cool
Lösungen
- jedem seine eigene robots geben
- ein http forwarding per .htaccess