Jestem młody i nie żyłem w latach 60. i 70., aby doświadczyć tworzenia sieci i programowania jak kiedyś. Obserwowałem niektóre rozmowy Van Jacobsona na temat Content Centric Networking, a podczas tych rozmów przedstawia historyczną perspektywę, stwierdzając, że w latach 60. i 70. sieci zostały zaprojektowane w celu rozwiązania problemu udostępniania zasobów, na przykład uzyskania dostępu do rzadkich czytników kart lub napędy taśmowe dużej prędkości. Następnie mówi, że w tej erze było bardzo mało danych i że dane „nie żyły na komputerach”, było to coś, co nosiliście przy sobie, np. Na taśmach lub wydrukach.
Mam dwa pytania dotyczące tego:
1) Jak ludzie „zdalnie” używali czegoś takiego jak czytnik kart? Z pewnością w pewnym momencie fizyczne karty musiały zostać dostarczone wszędzie tam, gdzie był komputer. Jeśli byłeś 100 mil stąd, czy to oznaczało, że wysłali karty z wyprzedzeniem, a następnie po prostu użyli sieci do wykonania poleceń niezbędnych do uruchomienia tych talii kart?
2) Jak ludzie na ogół uzyskali wynik swoich programów? Czy został wysłany z powrotem przez drut, czy też wydrukowano / taśmy itp. Opublikowano po uruchomieniu programu do zdalnego badacza?
Przepraszam, że pomieszałem tutaj swoje epoki, jak powiedziałem, że wtedy nie żyłem.
Dzięki.
źródło
Odpowiedzi:
Wiele firm w latach 60. i 70. korzystało z tak zwanego „dzielenia czasu” zasobów komputera zdalnego.
1) Dane wejściowe zostały wysłane przez maszynę teletekstową, która wysłałaby dane wejściowe do maszyny zdalnej, a na wyświetlaczu wydrukowano papier.
2) Program uruchomi się, a wyniki powrócą na maszynie teletechnicznej. Często komputer mainframe znajdował się tysiące kilometrów stąd.
Linie telefoniczne były zwykle używane jako transport sieciowy, coś w rodzaju wczesnego użycia modemu.
Pamiętam, jak mój tata używał jednego z tych na początku lat 70-tych. Komputer znajdował się na wschodnim wybrzeżu, a teletyp był w Oklahoma City, OK.
Artykuł popularno-naukowy opisujący podział czasu w latach 60
źródło
Zasadniczo nie było sieci. Aby zrobić coś pożytecznego, trzeba było znajdować się w tym samym miejscu co komputer. Zabrałeś więc swoje karty do centrum operacyjnego i umieściłeś je w pudełku. Następnie operatorzy załadowali je do czytnika kart. Wyniki wydrukowano na papierze lub wycięto na kartach, a ty po raz kolejny poszedłeś do centrum operacyjnego, aby je odebrać.
Później stały się dostępne takie linie, jak 300 bodów, ale nie można było zapisywać (lub zwiększać) dużej ilości danych, więc trzeba było być w tej samej lokalizacji, aby dokonać poważnego wejścia lub wyjścia.
Szczęśliwe dni!
źródło
W tym Wikipedii znajduje się kilka dobrych informacji na temat terminali komputerowych. Jednym ze sposobów na ucieczkę od kart dziurkowanych było użycie terminali podłączonych do centralnego systemu. Doprowadziło to do potrzeby algorytmów planowania, protokołów użytkowania, protokołów komunikacyjnych (między systemem a terminalem i ostatecznie do innych systemów). Postępy w zakresie technologii fizycznych i innowacji protokołów do różnych celów pomogły odejść od tego scentralizowanego modelu obliczeniowego do modelu bardziej sieciowego.
źródło
Nauczyłem się programować przy użyciu kart optycznych (wersja kart dziurkowanych IBM), które moje liceum wysłało na lokalny uniwersytet w celu wykonania w czasie wolnym. NAPRAWDĘ zasysane jest oczekiwanie na tydzień, aż dane wyjściowe powrócą, aby dowiedzieć się, czy: a) umieściłeś karty w talii w niewłaściwej kolejności lub b) operator upuścił tacę podczas ładowania czytnika. Nastąpił OGROMNY skok technologiczny w poprzednim roku, kiedy dostaliśmy dziurkę od taśmy papierowej i mogliśmy pozbyć się kart.
Co więcej, moim pierwszym prawdziwym zadaniem obliczeniowym było pisanie kodu na głupim terminalu. Na szczęście mieliśmy większość komputerów stacjonarnych. (Maszyna o wartości 5 milionów USD na obsługę ~ 300 lokalnych użytkowników, roczne koszty operacyjne 500 000 USD, oddany personel 6 lub 7 osób) Co jakiś czas musieliśmy coś robić na głównych systemach firmy w Houston z naszej lokalizacji w Los Angeles. Czas reakcji zależał od tego, jak ważne było lokalne zarządzanie, b / c wyższy priorytet = wyższe obciążenia zwrotne, nie wspominając o wolnych linkach. I wszystko wróciło do naszego działu - odczyty taśmy, zużycie procesora, koszty papieru dla wydruku zielonego itd.
źródło