Allgemeines > Atari - Talk

st-computer.net

<< < (2/5) > >>

Mathias:

--- Zitat von: mfro am Mi 26.08.2015, 21:13:28 ---Irgendeine Sperre in robots.txt heißt keinesfalls, daß ein Crawler die Seite nicht lesen _kann_ sondern lediglich, daß er sie nicht lesen _soll_.

Daran kann man sich halten oder auch nicht.

Wenn Du eine Seite nicht gelesen haben willst, solltest Du sie nicht ins Netz stellen.

--- Ende Zitat ---
Also mir persönlich ist das schon klar! ;)
Da gings eher drum was archive.org jetzt genau macht, und ich hab´ mit Matthias ja schon öfters übers Archiv gesprochen. Das hätte jetzt doch einiges geändert wenn archive sich trotz dauerhaft vorhandener robots.txt mit irgendeiner "Extrafunktion" darüber hinweggesetzt hätte. Deshalb hab´ ich nachgefragt, und die Erklärung klärt auch alles auf soweit.

MJaap:
So, einige Inhalte habe ich in die neue DB eingespielt und den HTML-Code der alten stc-Website als Vorlage genutzt. Dies ist die "klassische" Ansicht der Website, die auch mit alten Atari-Browsern kompatibel ist. Einige Links habe ich entfernt, hinzugefügt oder aktualisiert und das Logo ausgetauscht. Download der älteren Ausgaben erfolgt dann über die Ausgaben-Übersicht.

Leider wurden viele der Bilder in den stc-News nicht von der Wayback Machine des Internet Archives archiviert. Es werden auch nicht alle Desktop-Hintergründe zur Verfügung stehen.

1ST1:
Sauber!

dbsys:
Tolle Sache!

Ich freue mich darauf...

Nervengift:
WOW! Das sieht ja mal echt geil aus! Sehr ansprechendes und auch vor allem übersichtliches Design! 8)

Ich probiere die Seite heute Abend gleich mal auf dem Milan aus. Highwire läuft mit einem 68040 und dem Cache in u:\ram\ gar nicht so übel. Das ist schon eine fast annehmbare Arbeitsgeschwindigkeit für alte Seiten. Nur werden oft Seiten nicht ganz so gut dargestellt. Da scheint CAB besser zu sein, aber lahmer in der Geschwindigkeit.

Navigation

[0] Themen-Index

[#] Nächste Seite

[*] Vorherige Sete

Zur normalen Ansicht wechseln