domains versauen umija SE Präsenz

mehrere suchmaschinen) werden auf das haupt-tikiwiki aufgelöst, darum bekommen die Seiten eigenen cache in den ((umija:www)

zB open-craft.de/20030600 -->301 (permanent) weiterleitung holz-energie.org/20060227 --> 404 nachdem alles an die .info geleitet wird .... mwiki.umija.org/20051337:gigaLAN -- >301 zu umija.org (resultierend aus subdomain Regelung)

alle anderen domains sollte ihre robots.txt haben!

http://umija.org/robots.txt - OK http://umija.net/robots.txt - 301 (permanent) weiterleitung http://umija.com/robots.txt - OK http://umija.de/robots.txt - OK http://klml.de/robots.txt - leg mal deine robots.txt in das umija.org/file/klml verz. ab. war auch so besprochen! brauch ich net, da klml.de nen 301 bekommt. dis: Ja klar bekommt der 301 und deswegen soll die robots.txt nicht bei strato hinterlegt werden sondern bei umija eben in dem file/klml verz. Auch wenn du nichts ausschließen willst, nach robots.txt fragt jeder bot! http://stylebrunch.de/robots.txt - OK http://opencraft.de/robots.txt - todo, da noch kein Eintrag http://open-craft.de/robots.txt - todo, da noch kein Eintrag http://holz-energie.org/robots.txt - Müsste jetzt gehen http://holz-energie.info/robots.txt - OK http://nur-auf-rechnung.de/robots.txt - OK http://blue-ray-kaufen.de/robots.txt - OK

Subdomains

edma: die subdomains geben den umija inhalt wieder, also egal was du vorhin eingibst! Ich würde vorschlagen dass wir alle subdomains mit 302/301 (weiß nicht was sinnvoller ist) an umija.org weiterleiten.

klml: ja das wäre cool

Lösungen

  • jedem seine eigene robots geben
  • ein http forwarding per .htaccess