To pytanie powstało z komentarzy na temat różnego rodzaju postępów w informatyce w ciągu ostatnich 50 lat.
Inni uczestnicy poprosili mnie o postawienie go jako pytania całemu forum.
Podstawową ideą tutaj nie jest krytykowanie obecnego stanu rzeczy, ale próba zrozumienia czegoś na temat postępów w opracowywaniu fundamentalnych nowych pomysłów i zasad.
Twierdzę, że potrzebujemy naprawdę nowych pomysłów w większości dziedzin informatyki i chciałbym poznać wszelkie ważne i potężne, które zostały ostatnio wykonane. Jeśli tak naprawdę nie możemy ich znaleźć, powinniśmy zapytać „Dlaczego?” i „Co powinniśmy robić?”
innovation
Alan Kay
źródło
źródło
Odpowiedzi:
Sam Internet powstał przed 1980 rokiem, ale sieć WWW („rozpowszechniany hipertekst za pomocą prostych mechanizmów”), jak zaproponowano i wdrożono przez Tim Berners-Lee, rozpoczęła się w latach 1989/90.
Chociaż idea hipertekstu istniała już wcześniej ( Xanadu Nelsona próbował wdrożyć schemat rozproszony), WWW było nowym podejściem do wdrażania rozproszonego systemu hipertekstu. Berners-Lee połączył prosty protokół klient-serwer, język znaczników i schemat adresowania w sposób wydajny i łatwy do wdrożenia.
Myślę, że większość innowacji powstaje poprzez ponowne połączenie istniejących elementów w oryginalny sposób. Każdy z elementów WWW istniał wcześniej w jakiejś formie, ale połączenie było oczywiste tylko z perspektywy czasu.
I wiem na pewno, że używasz go teraz.
źródło
Fundacja Wolnego Oprogramowania (założona 1985)
Nawet jeśli nie jesteś gorącym zwolennikiem ich filozofii, propagowane przez nich idee wolnego oprogramowania typu open source miały niesamowity wpływ na przemysł oprogramowania i ogólnie treści (np. Wikipedię).
źródło
Myślę, że uczciwie jest powiedzieć, że w 1980 roku, jeśli korzystałeś z komputera, zarabiałeś za to lub byłeś maniakiem ... co się zmieniło?
Drukarki i publikowanie na poziomie konsumenckim . Oznacza to, że nie potrzebujesz prasy drukarskiej do drukowania dużych ilości materiałów o wysokiej jakości. To było duże - oczywiście w dzisiejszych czasach całkowicie przyjmujemy to za pewnik, a przeważnie nawet nie zawracamy sobie głowy częścią drukarską, ponieważ i tak wszyscy są online.
Kolor . Poważnie. Kolorowe ekrany miały ogromny wpływ na postrzeganie gier i aplikacji przez nie-maniaków. Nagle gry wydawały się mniej ciężką pracą, a bardziej oglądaniem telewizji, co otworzyło drzwi dla Sega, Nintendo, Atari i innych, aby wprowadzić gry konsumenckie do domu.
Kompresja multimediów (pliki MP3 i pliki wideo). I cała masa rzeczy - takich jak TiVO i iPody - których tak naprawdę nie uważamy za komputery, ponieważ są tak wszechobecne i przyjazne dla użytkownika. Ale oni są.
Myślę, że wspólnym wątkiem są rzeczy, które kiedyś były niemożliwe (tworzenie drukowanych dokumentów; dokładne odtwarzanie kolorowych obrazów; wysyłanie wiadomości na całym świecie w czasie rzeczywistym; dystrybucja materiałów audio i wideo), a następnie były drogie ze względu na sprzęt i logistykę zaangażowany i jest teraz na poziomie konsumenta. Więc - co robią teraz duże korporacje, co kiedyś było niemożliwe, ale może być fajne, jeśli potrafimy wymyślić, jak to zrobić małe i tanie?
Ciekawe jest wszystko, co nadal wymaga transportu fizycznego. Wideokonferencje nie zastąpiły (jeszcze) prawdziwych spotkań - ale przy odpowiedniej technologii mogą nadal. Niektóre podróże rekreacyjne można wyeliminować dzięki całkowicie zmysłowemu, wciągającemu otoczeniu - kino domowe jest banalnym przykładem; innym jest „wirtualne pole golfowe” w budynku biurowym w Soho, gdzie grasz na 18 dołkach prawdziwego golfa na symulowanym polu golfowym.
Dla mnie kolejną naprawdę wielką rzeczą będzie fabrykacja. Tworzenie rzeczy. Łyżki, gitary, krzesła, ubrania, samochody, płytki i inne rzeczy. Rzeczy, które nadal polegają na infrastrukturze produkcji i dystrybucji. Nie muszę już iść do sklepu, żeby kupić film lub album - ile czasu muszę iść do sklepu po odzież i przybory kuchenne?
Pewnie, dzieje się coś ciekawego z wyświetlaczami OLED, GPS i mobilnymi kontenerami szerokopasmowego Internetu, kontenerami IoC i skryptami, a także „chmurą” - ale to wciąż nowatorskie sposoby wyświetlania zdjęć na ekranie. Mogę drukować własne zdjęcia i pisać własne strony internetowe, ale chcę mieć możliwość wytworzenia płóciennego kosza, który dokładnie pasuje do tego zaułka obok biurka, wspornika montażowego do przyklejenia gitary do biurka i czegoś takiego do przypinania mojego telefonu komórkowego do kierownicy roweru.
Nie związany z programowaniem? Nie ... ale w 1980 roku nie było też produkcji dźwięku. Lub dystrybucja wideo. Lub wysyłanie wiadomości do swoich krewnych w Zambii. Myśl, ludzie ... :)
źródło
Zarządzanie pakietami i rozproszona kontrola wersji.
Te wzorce w sposobie opracowywania i dystrybucji oprogramowania są dość nowe i wciąż zaczynają przynosić efekty.
Ian Murdock nazwał zarządzanie pakietami „największym pojedynczym osiągnięciem Linuksa w branży”. Cóż, zrobiłby to, ale ma rację. Sposób instalacji oprogramowania zmienił się znacząco od 1980 roku, ale większość użytkowników komputerów nadal nie doświadczyła tej zmiany.
Joel i Jeff rozmawiali o kontroli wersji (lub kontroli wersji lub kontroli źródła) z Erikiem Sink w Podcastu # 36 . Wygląda na to, że większość programistów jeszcze nie dogoniła scentralizowanych systemów, a DVCS jest powszechnie postrzegany jako tajemniczy i niepotrzebny.
Z transkrypcji Podcast 36 :
źródło
With distributed version control, the distributed part is actually not the most interesting part.
BitTorrent . Całkowicie odwraca to, co wcześniej wydawało się oczywiście niezmienną zasadą - czas potrzebny na pobranie pliku przez jedną osobę wzrasta proporcjonalnie do liczby osób, które go pobierają. Zajmuje się także wadami poprzednich rozwiązań peer-to-peer, szczególnie wokół „pijawek”, w sposób organiczny dla samego rozwiązania.
BitTorrent elegancko zmienia to, co zwykle jest wadą - wielu użytkowników próbuje pobrać pojedynczy plik jednocześnie - w korzyść, dystrybuując go geograficznie jako naturalną część procesu pobierania. Strategia optymalizacji wykorzystania przepustowości między dwoma urządzeniami równorzędnymi zniechęca do działania pijawek jako efektu ubocznego - wymuszenie ograniczania przepustowości leży w najlepszym interesie wszystkich uczestników.
Jest to jeden z tych pomysłów, który, gdy ktoś go wymyśli, wydaje się prosty, jeśli nie oczywisty.
źródło
Wnioskowanie typu Damas-Milner (często nazywane wnioskowanie typu Hindley-Milner) zostało opublikowane w 1983 roku i od tego czasu stanowiło podstawę każdego wyrafinowanego układu typu statycznego. Był to naprawdę nowy pomysł w językach programowania (przyjęty na podstawie pomysłów opublikowanych w latach 70. XX wieku, ale praktyczny dopiero po 1980 r.). Jeśli chodzi o ważność, zgadzam się z Jaźnią i technikami stosowanymi do implementacji Jaźni; pod względem wpływu nie ma sobie równych. (Reszta świata OO wciąż robi różne wersje na Smalltalk lub Simula.)
Nadal odgrywają wariacje wnioskowania typu; Najbardziej wyróżniającą się odmianą jest mechanizm klasy typu Wadlera i Blotta służący do usuwania przeciążenia, który później odkryto, że oferuje bardzo potężne mechanizmy programowania na poziomie typu. Koniec tej historii jest wciąż w trakcie pisania.
źródło
Oto wtyczka do zmniejszania map Google , nie tylko dla siebie, ale jako przybliżenie osiągnięcia przez Google szybkich, niezawodnych usług na farmach nierzetelnych, towarowych maszyn. Zdecydowanie ważny wynalazek i całkowicie odmienny od wielkoformatowych komputerów mainframe do obliczeń wagi ciężkiej, które rządziły rajem w 1980 roku.
źródło
Tagowanie , sposób podziału informacji na kategorie. Tak, małe pola tekstu pod każdym pytaniem.
To niesamowite, że wynalezienie tagowania zajęło około 30 lat. Użyliśmy list i spisów treści; korzystaliśmy z rzeczy zoptymalizowanych pod kątem książek drukowanych.
Jednak 30 lat jest znacznie krótsze niż czas potrzebny ludziom na uświadomienie sobie, że książki drukowane mogą mieć mniejszy format. Ludzie mogą trzymać książki w rękach.
Myślę, że koncepcja znaczników jest niedoceniana wśród głównych facetów CS. Wszystkie badania koncentrują się na przetwarzaniu języka naturalnego (podejście odgórne). Ale tagowanie to pierwszy język, w którym zarówno komputery, jak i ludzie mogą dobrze rozumieć. To podejście oddolne sprawia, że komputery używają języków naturalnych.
źródło
Myślę, że patrzymy na to w niewłaściwy sposób i wyciągamy błędne wnioski. Jeśli dobrze to zrozumiem, cykl przebiega:
Pomysł -> pierwsze wdrożenie -> przyjęcie mniejszości -> masa krytyczna -> produkt towarowy
Od pierwszego pomysłu do towaru często masz stulecia, zakładając, że pomysł dotrze do tego etapu. Da Vinci mógł narysować jakiś helikopter w 1493 roku, ale potrzeba było około 400 lat, aby uzyskać maszynę zdolną do uniesienia się z ziemi.
Od pierwszego opisu okrętu podwodnego Williama Bourne'a w 1580 r. Do pierwszego wdrożenia w 1800 r., Masz 220 lat, a obecne okręty podwodne są wciąż w fazie niemowlęcej: prawie nie wiemy nic o podwodnych podróżach (z 2/3 planety pod powierzchnią morza, pomyśl o potencjalna nieruchomość;).
I nie można powiedzieć, że nie było wcześniejszych, znacznie wcześniejszych pomysłów, o których po prostu nigdy nie słyszeliśmy. Opierając się na niektórych legendach, wygląda na to, że Aleksander Wielki użył jakiegoś dzwonka nurkowego w 332 rpne (co jest podstawową ideą łodzi podwodnej: urządzenia do przenoszenia ludzi i zapasu powietrza pod powierzchnią morza). Biorąc to pod uwagę, patrzymy na 2000 lat od pomysłu (nawet z podstawowym prototypem) do produktu.
Mówię o tym, że dzisiaj szukając wdrożeń, nie mówiąc już o produktach, które nie były nawet pomysłami przed 1980 r., ... założę się, że algorytm „szybkiego sortowania” był używany przez jakiegoś urzędnika plików bez nazwy w starożytnych Chinach. Więc co?
Oczywiście 40 lat temu istniały komputery w sieci, ale to nie dorównuje dzisiejszemu Internetowi. Była tam podstawowa idea / technologia, ale bez względu na to, że nie mogłeś zagrać w grę Warcraft online.
Historycznie rzecz biorąc, nigdy nie byliśmy w stanie tak szybko „znaleźć ich” tak blisko idei. Myślę, że cykl przyspiesza, ale komputery są wciąż cholernie młode.
Obecnie próbuję wymyślić, jak zrobić hologram (rodzaj Gwiezdnych wojen, bez jakiegokolwiek wsparcia fizycznego). Myślę, że wiem, jak to zrobić. Nawet nie zebrałem narzędzi, materiałów, finansowania, a nawet jeśli miałbym w jakimkolwiek stopniu odnieść sukces, faktyczny pomysł miałby już co najmniej kilka dekad, a powiązane wdrożenia / technologie były wykorzystywane równie długo .
Gdy tylko zaczniesz wymieniać rzeczywiste produkty, możesz być całkiem pewien, że koncepcje i pierwsze wdrożenia istniały jakiś czas temu. Nie ma znaczenia
Można argumentować z jakiegoś powodu, że nic nie jest nowe, nigdy, lub że wszystko jest nowe, zawsze. To jest filozofia i oba punkty widzenia można bronić.
Z praktycznego punktu widzenia prawda leży gdzieś pośrodku. Prawda nie jest pojęciem binarnym, niech będzie przeklęta logika boolowska.
Chińczycy mogli kiedyś wymyślić maszynę drukarską, ale minęło około 10 lat, że większość ludzi może wydrukować w domu przyzwoite kolorowe zdjęcia za rozsądną cenę.
Wynalazek jest nigdzie i wszędzie, w zależności od twoich kryteriów i ram odniesienia.
źródło
Algorytm Google Page Rank . Chociaż może to być postrzegane jedynie jako udoskonalenie wyszukiwarek indeksujących strony internetowe, chciałbym zauważyć, że one również zostały opracowane po 1980 roku.
źródło
DNS, 1983 i zaległe postępy, takie jak rozwiązywanie hosta poczty e-mail za pomocą rekordów MX zamiast ścieżek bang. *dreszcz*
Zeroconf działający na DNS, 2000. Podłączam drukarkę do sieci i mój laptop ją widzi. Uruchamiam serwer sieciowy w sieci i moja przeglądarka go widzi. (Zakładając, że transmitują swoją dostępność.)
NTP (1985) oparty na algorytmie Marzullo (1984). Dokładny czas w roztrzęsionych sieciach.
Kółko myszy, 1995. Używanie myszy bez niego wydaje się takie prymitywne. I nie, to nie jest coś, o czym pomyślał zespół Engelbarta i zapomniał o nim wspomnieć. Przynajmniej nie, kiedy zapytałem kogoś, kto był wtedy w zespole. (Było to na jakiejś imprezie Engelbart w 1998 roku. Mam do czynienia z jedną z pierwszych myszy.)
Unicode, 1987 i jego zależne postępy w zakresie różnych rodzajów kodowania, normalizacji, tekstu dwukierunkowego itp.
Tak, ludzie często używają wszystkich 5 z nich każdego dnia.
Czy to „naprawdę nowe pomysły”? W końcu były myszy, były kodowania znaków, było mierzenie czasu w sieci. Powiedz mi, jak mogę odróżnić „nowy” od „naprawdę nowego”, a ja odpowiem na to za ciebie. Moja intuicja mówi, że są one wystarczająco nowe.
W mniejszych domenach można łatwo wprowadzić nowsze wersje. Na przykład w bioinformatyce Smith-Waterman (1981), a zwłaszcza BLAST (1990) skutecznie umożliwiają tę dziedzinę. Ale brzmi to tak, jakbyś prosił o pomysły, które są bardzo szerokie na całym obszarze komputerów, a nisko wiszące owoce są wybierane jako pierwsze. Tak jest zawsze z nowym polem.
źródło
Co z aparatami cyfrowymi?
Według Wikipedii pierwszy prawdziwy aparat cyfrowy pojawił się w 1988 r., A aparaty cyfrowe dostępne na rynku masowym stały się dostępne pod koniec lat 90. XX wieku.
źródło
Nowoczesne języki cieniowania i rozpowszechnienie współczesnych układów GPU.
GPU jest również tanim równoległym superkomputerem z narzędziami takimi jak CUDA i OpenCL do błyskawicznego szybkiego kodu równoległego wysokiego poziomu . Dziękujemy wszystkim graczom, którzy obniżają ceny tych coraz bardziej imponujących cudów sprzętu. W ciągu najbliższych pięciu lat mam nadzieję, że każdy sprzedany nowy komputer (także iPhone) będzie miał możliwość uruchamiania masowo równoległego kodu jako podstawowego założenia, podobnie jak 24-bitowy kolor lub 32-bitowy tryb chroniony.
źródło
Kompilacja JIT została wynaleziona pod koniec lat 80.
źródło
Aby odpowiedzieć na dwa pytania dotyczące „Dlaczego śmierć nowych pomysłów” i „Co z tym zrobić”?
Podejrzewam, że duży brak postępu wynika z ogromnego napływu kapitału i zakorzenionego bogactwa w branży. Brzmi to sprzecznie z intuicją, ale myślę, że stało się powszechną mądrością, że każdy nowy pomysł dostaje jeden strzał; jeśli nie uda się za pierwszym razem, nie może wrócić. Kupuje go ktoś z zakorzenionymi zainteresowaniami lub po prostu nieudanymi, a energii już nie ma. Kilka przykładów to tablety i zintegrowane oprogramowanie biurowe. Newton i kilku innych mieli prawdziwy potencjał, ale ostatecznie (przez konkurencyjne wyczerpanie i zły osąd) zmarnowali swoje prawa autorskie, zabijając całe kategorie. (Szczególnie podobały mi się ramy Ashtona Tate'a, ale nadal utknąłem w programach Word i Excel).
Co robić? Pierwszą rzeczą, jaka przychodzi mi na myśl, jest Wm. Rada Szekspira: „Zabijmy wszystkich prawników”. Ale obawiam się, że teraz są zbyt dobrze uzbrojeni. Myślę, że najlepszą alternatywą jest znalezienie jakiejś inicjatywy Open Source. Wydaje się, że lepiej utrzymują dostępność i stopniową poprawę niż alternatywy. Ale przemysł stał się na tyle duży, że potrzebny jest jakiś organiczny mechanizm współpracy, aby uzyskać przyczepność.
Uważam również, że istnieje dynamika, która mówi, że zakorzenione interesy (zwłaszcza platformy) wymagają znacznych zmian - rezygnacji - aby uzasadnić ciągłe strumienie dochodów; i to pochłania dużo kreatywnej energii, którą można by wydać na lepsze sposoby. Zobacz, ile czasu spędzamy krocząc po wodzie dzięki najnowszej wersji Microsoft, Sun, Linux lub Firefox, wprowadzając zmiany w systemach, które w większości już działają dobrze. Nie dlatego, że są źli, to po prostu wbudowane w przemysł. Nie ma czegoś takiego jak Stabilna Równowaga; wszystkie mechanizmy sprzężenia zwrotnego są pozytywne, faworyzując zmianę zamiast stabilności. (Czy widziałeś kiedyś funkcję wycofaną lub wycofaną zmianę?)
Inną wskazówką, która była dyskutowana na temat SO, jest zespół Skunkworks (zob. Geoffrey Moore): prawdziwa innowacja w dużych organizacjach prawie zawsze (90% +) pojawia się w nieautoryzowanych projektach, które pojawiają się spontanicznie, napędzane wyłącznie przez inicjatywę indywidualną lub małą grupę ( i częściej niż formalne hierarchie zarządzania nie są temu przeciwne). Tak więc: Urząd pytania, Buck the System.
źródło
Jedną rzeczą, która mnie zadziwia, jest skromny arkusz kalkulacyjny. Ludzie niebędący programistami budują dzikie i wspaniałe rozwiązania rzeczywistych problemów za pomocą prostej siatki formuł. Replikacja ich wysiłków w aplikacji komputerowej często zajmuje 10 do 100 razy dłużej niż napisanie arkusza kalkulacyjnego, a wynikowa aplikacja jest często trudniejsza w użyciu i pełna błędów!
Uważam, że kluczem do sukcesu arkusza kalkulacyjnego jest automatyczna analiza zależności. Gdyby użytkownik arkusza kalkulacyjnego był zmuszony użyć wzorca obserwatora, nie miałby szans na poprawne wykonanie tego wzoru.
Dużym postępem jest więc automatyczna analiza zależności. Dlaczego więc żadna nowoczesna platforma (Java, .Net, Web Services) nie wbudowała tego w rdzeń systemu? Zwłaszcza w dobie skalowania poprzez paralelizację - wykres zależności prowadzi do trywialnych ponownych obliczeń.
Edycja: Dang - właśnie zaznaczone. VisiCalc został wydany w 1979 roku - udawajmy, że jest to wynalazek po 1980 roku.
Edit2: Wygląda na to, że Alan i tak już odnotował ten arkusz kalkulacyjny - jeśli pytanie, które go kupiło na tym forum, jest prawidłowe!
źródło
Oprogramowanie:
Wirtualizacja i emulacja
Przesyłanie danych P2P
projekty społecznościowe, takie jak Wikipedia, SETI @ home ...
indeksowanie i wyszukiwarki internetowe, tj. indeksujące informacje rozpowszechnione na całym świecie
Sprzęt komputerowy:
modułowy komputer PC
E-papier
źródło
Ponowne odkrycie monady przez badaczy programowania funkcjonalnego. Monada przyczyniła się do tego, że czysty, leniwy język (Haskell) stał się praktycznym narzędziem; wpłynęło to również na projekt bibliotek kombinatora (kombinatory monadycznego parsera nawet znalazły drogę do Pythona).
Moggijskie „Teoretyczne konto modułów programowych” (1989) jest powszechnie przypisywane wprowadzaniu monad w celu uzyskania efektywnych obliczeń; Praca Wadlera (na przykład „Imperatywne programowanie funkcjonalne” (1993)) przedstawiła monady jako praktyczne narzędzie.
źródło
Oprogramowanie Shrinkwrap
Przed 1980 r. Oprogramowanie było w większości specjalnie napisane. Jeśli prowadziłeś firmę i chciałeś skomputeryzować, zazwyczaj kupowałbyś komputer, kompilator i bazę danych, a także pisałeś własne rzeczy. Oprogramowanie biznesowe zwykle pisano w celu dostosowania do praktyk biznesowych. Nie oznacza to, że nie było żadnego oprogramowania w puszkach (pracowałem z SPSS przed 1980 r.), Ale nie było to normą, a to, co widziałem, zwykle było oprogramowaniem infrastrukturalnym i badawczym.
W dzisiejszych czasach możesz iść do sklepu komputerowego i znaleźć na półce wszystko, czego potrzebujesz do prowadzenia małej firmy. Nie jest zaprojektowany tak, aby bezproblemowo pasował do wszelkich praktyk, które kiedyś miałeś, ale będzie działał dobrze, gdy nauczysz się pracować mniej więcej zgodnie z jego przepływem pracy. Duże firmy są o wiele bliżej niż folia termokurczliwa niż kiedyś, z takimi rzeczami jak SAP i PeopleSoft.
Nie jest to czysta przerwa, ale po 1980 r. Nastąpiło bardzo wyraźne przejście z drogiego oprogramowania niestandardowego na tanie, gotowe oprogramowanie i elastyczność przeniesiona z oprogramowania na procedury biznesowe.
Wpłynęło to również na ekonomikę oprogramowania. Niestandardowe rozwiązania programowe mogą być opłacalne, ale nie skalują się. Możesz obciążać tylko jednego klienta i nie możesz sprzedać tego samego wielu klientom. Dzięki oprogramowaniu shrinkwrap możesz sprzedawać wiele takich samych rzeczy, amortyzując koszty rozwoju w stosunku do bardzo dużej bazy sprzedaży. (Musisz zapewnić wsparcie, ale to skaluje się. Uważaj to za marginalny koszt sprzedaży oprogramowania.)
Teoretycznie, tam gdzie są wielcy zwycięzcy od zmiany, będą przegrani. Do tej pory działalność związana z oprogramowaniem stale się rozwijała, więc wraz z upowszechnianiem się obszarów otwierają się inne obszary. To prawdopodobnie kiedyś dobiegnie końca, a umiarkowanie utalentowani programiści znajdą się w prawdziwym kryzysie, niezdolni do pracy dla dużych chłopców i wypchnięci z rynku. (Przypuszczalnie dzieje się tak w innych dziedzinach; podejrzewam, że popyt na księgowych jest znacznie mniejszy niż w przypadku QuickBooks i tym podobnych).
źródło
Poza innowacjami sprzętowymi mam tendencję do stwierdzania, że pod słońcem nie ma nic nowego lub nic nowego. Większość naprawdę wielkich pomysłów sięga ludzi takich jak von Neumann i Alan Turing.
Wiele rzeczy, które w dzisiejszych czasach są oznaczone jako „technologia”, to tak naprawdę tylko program lub biblioteka, którą ktoś napisał, lub ponowne czytanie starego pomysłu z nową metaforą, akronimem lub marką.
źródło
Robaki komputerowe były badane na początku lat osiemdziesiątych ubiegłego wieku w Xerox Palo Alto Research Center.
Z programów Johna Shocha i Jona Huppa „Robaki” - wczesne doświadczenia z obliczeniami rozproszonymi ”(komunikat ACM, marzec 1982 r., Tom 25, numer 3, s. 172–180, marzec 1982 r.):
Cytując Alana Kay: „Najlepszym sposobem przewidzenia przyszłości jest jej wymyślenie”.
źródło
Lepsze interfejsy użytkownika.
Dzisiejsze interfejsy użytkownika nadal są do bani. I nie mam na myśli małych, ale dużych, fundamentalnych sposobów. Nie mogę nie zauważyć, że nawet najlepsze programy nadal mają interfejsy, które są albo niezwykle złożone, albo wymagają dużo abstrakcyjnego myślenia na inne sposoby, i które po prostu nie podchodzą do łatwości konwencjonalnych, nieprogramowych narzędzi.
To prawda, że wynika to z faktu, że oprogramowanie pozwala robić o wiele więcej niż konwencjonalne narzędzia. Nie jest to jednak powód do przyjęcia status quo. Ponadto większość oprogramowania nie jest po prostu dobrze wykonana.
Ogólnie rzecz biorąc, aplikacjom nadal brakuje pewnego poczucia „po prostu działa”, są zbytnio zorientowane na to, co można zrobić, a nie na to, co należy zrobić. Jedną z kwestii, która była wielokrotnie podnoszona i której wciąż nie rozwiązano, jest kwestia oszczędzania. Awaria aplikacji, niszcząc godziny pracy. Mam zwyczaj naciskać Ctrl + S co kilka sekund (oczywiście nie działa to już w aplikacjach internetowych). Dlaczego muszę to zrobić? To zdumiewająco głupie. Jest to oczywiście zadanie automatyzacji. Oczywiście aplikacja musi także zapisać różnicę dla każdej modyfikacji, którą wprowadzam (w zasadzie nieskończoną listę cofnięć) na wypadek, gdyby popełniłem błąd.
Rozwiązanie tego problemu nie jest nawet trudne. Trudno byłoby go zaimplementować w każdej aplikacji, ponieważ nie ma do tego dobrego API. Narzędzia programistyczne i biblioteki muszą ulec znacznej poprawie, zanim możliwe będzie bezproblemowe wdrożenie takich efektów na wszystkich platformach i programach, dla wszystkich formatów plików z dowolnym miejscem przechowywania kopii zapasowych i bez wymaganej interakcji użytkownika. Jest to jednak niezbędny krok, zanim w końcu zaczniemy pisać „dobre” aplikacje zamiast tylko odpowiednich.
Uważam, że Apple pod pewnymi względami zbliża się do tego, że „po prostu działa”. Weźmy na przykład ich najnowszą wersję iPhoto z funkcją rozpoznawania twarzy, która automatycznie grupuje zdjęcia według osób na nich obecnych. Jest to klasyczne zadanie, którego użytkownik nie chce wykonywać ręcznie i nie rozumie, dlaczego komputer nie wykonuje tego automatycznie. Nawet iPhoto jest jeszcze bardzo daleko od dobrego interfejsu użytkownika, ponieważ ta funkcja nadal wymaga ostatecznego potwierdzenia przez użytkownika (dla każdego zdjęcia!), Ponieważ silnik rozpoznawania twarzy nie jest idealny.
źródło
Systemy HTM ( Hiearchical Temporal Memory ).
Nowe podejście do sztucznej inteligencji, zainicjowane przez Jeffa Hawkinsa poprzez książkę „ O inteligencji ”.
Obecnie działająca jako firma o nazwie Numenta, w której pomysły te są testowane poprzez rozwój „prawdziwej” sztucznej inteligencji, z zaproszeniem do społeczności, aby uczestniczyć w niej za pomocą zestawu SDK.
Chodzi bardziej o budowanie inteligencji maszyn od podstaw, niż o naśladowanie ludzkiego rozumowania.
źródło
Wykorzystanie fizyki w interakcji człowiek-komputer w celu dostarczenia alternatywnej, zrozumiałej metafory. To w połączeniu z gestami i dotykiem prawdopodobnie zastąpi obecną powszechną metaforę GUI, wynalezioną w latach 70. i powszechnie stosowaną od połowy lat 80.
Moc obliczeniowa nie była obecna w 1980 roku, aby było to możliwe. Wydaje mi się, że Gry prawdopodobnie tu wiodły. Przykład można łatwo zobaczyć w interakcji przewijania listy w urządzeniu iPod Touch / iPhone. Mechanizm interakcji opiera się na intuicji działania pędu i tarcia w świecie rzeczywistym, aby zapewnić prosty sposób przewijania listy elementów, a użyteczność zależy od gestu fizycznego, który powoduje przewijanie.
źródło
Uważam, że testy jednostkowe, TDD i ciągła integracja to znaczące wynalazki po 1980 roku.
źródło
Telefony komórkowe.
Podczas gdy pierwszy patent na „telefon bezprzewodowy” miał miejsce w 1908 r. I gotowali przez długi czas (0G w 1945 r., 1G wprowadzono na rynek w Japonii w 1979 r.), Nowoczesne cyfrowe telefony komórkowe 2G pojawiły się dopiero w 1991 r. SMS nie istniał do 1993 r., a dostęp do Internetu pojawił się w 1999 r.
źródło
Zacząłem programować 2 stycznia 1980 roku. W ciągu mojej kariery starałem się myśleć o znaczących nowych wynalazkach. Z trudem o tym myślę. Większość tego, co uważam za znaczące, zostało faktycznie wynalezionych przed 1980 r., Ale potem nie zostało szeroko przyjęte ani ulepszone aż do tego czasu.
Podczas gdy sprzęt ogromnie się poprawił, przemysł oprogramowania stara się nadążyć. Jesteśmy o lata świetlne przed 1980 rokiem, ale większość ulepszeń to udoskonalenia, a nie wynalazki. Od 1980 roku jesteśmy zbyt zajęci stosowaniem tego, co pozwalają nam postępy, a nie wymyślaniem. Same w sobie większość tych przyrostowych wynalazków nie są ważne ani potężne, ale kiedy spojrzysz wstecz przez ostatnie 29 lat, są one dość potężne.
Prawdopodobnie musimy zastosować dodatkowe ulepszenia i sterować nimi. Wierzę, że prawdziwie oryginalne pomysły będą prawdopodobnie pochodzić od ludzi o niewielkim kontakcie z komputerami i coraz trudniej je znaleźć.
źródło
Nic.
Myślę, że to dlatego, że ludzie zmienili swoje nastawienie. Ludzie wierzyli, że jeśli tylko znajdą ten „wielki pomysł”, to uznają go za bogaty. Dzisiaj ludzie wierzą, że to egzekucja, a nie odkrycie najbardziej się opłaca. Masz mantry, takie jak: „pomysły to dziesiątka” i „druga mysz dostaje ser”. Dlatego ludzie koncentrują się na wykorzystywaniu istniejących pomysłów, zamiast wymyślać nowe.
źródło
Rozwój społeczności Open Source.
źródło
IPad (Wydany dnia April 2010): na pewno taka koncepcja jest absolutnie rewolucyjny!
alt text http://www.ubergizmo.com/photos/2010/1/apple-ipad//apple-ipad-05.JPG
Alan Kay nie widział że pochodzi z lat siedemdziesiątych!
Wyobraź sobie takiego „osobistego, przenośnego manipulatora informacji” ...
...
Czekać? Co!? TheDynabook mówisz?
Przemyślone przez Alana Kaya już w 1968 r. I szczegółowo opisane w tym artykule z 1972 r ?
NIEEEEE ooooo ....
No cóż ... nieważne.
źródło