Alan Kay neden “İnternet çok iyi yapıldı, ancak internet amatörlerdi” dedi?


86

Tamam, ben de felç ettim. Tam alıntı:

İnternet o kadar iyi yapılmıştı ki çoğu insan bunu, insan yapımı bir şey yerine Pasifik Okyanusu gibi doğal bir kaynak olarak görüyordu. En son ne zaman böyle bir ölçekte bir teknoloji hatasızdı? Web, buna karşılık, bir şakadır. Web amatörler tarafından yapıldı. - Alan Kay.

İnternet ve web tarihini anlamaya çalışıyorum ve bu ifadenin anlaşılması zor. Başka bir yerde, İnternetin artık tasarlandığından çok farklı şeyler için kullanıldığını ve belki de bu faktörleri okuduğumu okudum.

İnterneti bu kadar iyi yapan ve interneti bu kadar amatör yapan nedir?

(Tabii ki, Alan Kay yanılabilir ve burada kimse Alan Kay değil, o yüzden neden böyle söylediğini tam olarak bilemiyoruz, ama olası açıklamaların nelerdir?)

* Ayrıca orijinal görüşme * bakınız.


24
Aslında Alan Kay geçmişte bir noktada bir Stack Overflow sorusunu yanıtladı ...
World Engineer


6
IMHO, kaçırılan en büyük fırsat, HTML ayrıştırmayı katı hale getirmiyordu; örneğin, SGML vb selefleri katı ayrıştırma kurallarına sahipti; Bu HTML'nin başlamasını kolaylaştırdı ancak yıllarca sorun yarattı.
jqa

9
IMHO'nun asıl sorunu, web kullanımının ilk uygulama etki alanının (hiper metin) ötesine uzatılmasıdır.
chmike

3
Alan Kay'ın çalışmalarına çok saygı duyuyorum ama buna gerçekten inanıyorsa arkadan konuşuyor. Gerçekten düşük seviyeli ağ ortaklarını uygulamak için önemli miktarda zaman harcayan bir kişi olarak, TCP / IP API'lerinin eşit derecede amatörce ve saf olduğunu söyleyebilirim. Elbette değişken uzunluktaki bir seçenek uzantıları uygulayın (hiç kimsenin kullanmadığı) ancak adres alanını sabit hale getirin ve 2 bayt uzunluğuyla sınırlayın, çünkü bu aptalca değildi.
Evan Plaice

Yanıtlar:


61

Aslında, röportajın ikinci sayfasında bu konuyla ilgili ayrıntılı bilgi veriyor. Ağladığı protokolün teknik eksiklikleri değil, web tarayıcı tasarımcılarının vizyonu. Onun söylediği gibi:

Bir mini işletim sistemi olmasını istersiniz ve tarayıcıyı yapanlar bunu bir uygulama olarak yanlış anladılar.

Bir programlama dilindeki Wikipedia sayfası gibi, o dilde herhangi bir örnek programı yürütememesi ve WYSIWYG düzenlemesinin olmaması, web uygulamasından çok önce masaüstü uygulamalarında mevcut olmasına rağmen, bazı özel örnekler verir. 23 yıl sonra ve sadece orijinal web tarayıcısı tasarım kararlarının getirdiği sınırlamalar etrafında çalışmaya başlamayı başardık.


Yani tarayıcının küçük bir işletim sistemi olmasını istedi, bu yüzden ilk HTML'den daha etkileşimli olacaktı (şimdi daha iyi oluyor, katılıyorum)?
kalaracey

2
WYSIWYG'nin Web ile ne ilgisi var? Bu tamamen bir tarayıcı özelliğidir. Şimdi, doğru düzenleme eksikliği , bu gerçek bir Web arızası. POSTbu amaç için tamamen yetersizdir.
MSalters

9
"WYSIWYG'nin Web ile ne ilgisi var?" Mesele şu ki, web'in vizyonu çok sınırlı. Statik metin dosyaları çevriliyor. Etkileşim yok. Mantıksız, mantıklı değil. Kod yok. Bu, bilgisayarların yapabileceği ve Kay'ın daha önce yaptıklarını gördükleri ile karşılaştırıldığında çok sınırlı bir vizyondur. Ve web çok statik olduğu için sürekli revizyona ihtiyaç vardır. Kay'ın vizyonunda, tarayıcının gösterdiği web sayfası ile gelecektir.
Cormac Mulhall

2
İşe yarayacak ideal bir dünyada Java uygulamaları ve Flash gibi çerçeveler onu gerçekleştirmeye çalıştı. Güvenlik hususlarını göz önüne aldığınızda, sistem uyumluluğu arasındaki çaprazlama, ölçeklendirme yeteneği ve talepler arasındaki durumu korumak için gerekli çalışmaları gerçekleştirir. İlerlemenin neden bu kadar uzun sürdüğü hiç şaşırtıcı değil. Çok zeki / yetenekli bazı insanlar yıllarca saf şartnamenin temel kusurlarını / zayıflıklarını çözmek için harcadılar.
Evan Plaice


79

Bir anlamda haklıydı. HTML, HTTP ve URL'nin orijinal (pre-spec) sürümleri edildi amatörler (değil standartlar kişi) tarafından tasarlanan. Ve ilgili tasarımların ... ve sonraki (orijinal) özelliklerin ... olabileceği kadar iyi olmayan (kibarca koymak için) yönleri var. Örneğin:

  • HTML, yapı / içeriği sunumdan ayırmadı ve bunu düzeltmek için bir dizi revizyon ... ve fazladan özellikler (CSS) ... gerektirdi.

  • HTTP 1.0 çok verimsizdi ve alınan her "belge" için yeni bir TCP bağlantısı gerektiriyordu.

  • URL spesifikasyonu, aslında geçici ve tutarsız olan bir şey için bir spesifikasyonu tersine çevirme girişimidir. Şemaların tanımlanması alanında hala delikler var ve URL'lerin sözdizimi kuralları (örneğin, nerede kaçılması gerektiği) barok.

Ve daha önce insanların katıldığı daha "profesyonel" standartlar olsaydı, bu " yanlış adımlar" ın birçoğu yapılmayabilirdi . (Tabii ki, asla bilemeyeceğiz.)

Ancak, web bunlara rağmen muhteşem bir şekilde başardı . Ve tüm krediler bunu yapan insanlara gitmeli. O zamanlar “amatör” olsalar da olmasa da, şu anda kesinlikle amatör değiller.


29
HTML tarayıcı savaş kirlenmiş olduğunu sorunu da var
ucube mandalınızı

3
Bu, mevcut standartlardan kendi memnuniyetsizliğimi açıklamanın yolunun bir parçası. Yardım edemem ama bunun hem deneyimin, hem görüntünün hem de mevcut teknik yeteneklerin yararlarıyla tekrar gözden geçirmemiz gerektiğini düşünüyorum.
greyfade

3
@greyfade - Maalesef, W3C, bu hedefte 1) milyonlarca eski web sunucusu kurulumu, milyarlarca eski web sayfası ve 2) malzeme satın almaktan daha çok "ticari avantaj" kartı oynamakla ilgilenen şirketler tarafından ciddi şekilde engelleniyor.
Stephen C

3
@StephenC: Yine de, yeni ve daha iyi standartlar oluşturma çabasını şiddetle destekliyorum.
greyfade

1
@greyfade İnternette de olan şey; IP / TCP yığını ve OSI modeline sahip milyonlarca yönlendirici, daha iyi ve standart bir model kabul edilmeyecektir.
m3th0dman

27

Alan Kay ile web'i tasarlayan insanlara (öncelikle Tim Berners-Lee) karşı, böyle bir sistemin nasıl çalışması gerektiğine dair temel bir anlaşmazlık nedeniyle görünüyor.

Kay'a göre ideal bir tarayıcı gerçekten tek bir görevi olan küçük bir işletim sistemi olmalı: İnternetten indirilen kodu güvenle kullanmak için. Kays tasarımında, web sayfalardan değil, her türlü kodu içerebilen (güvenli olduğu sürece) kara kutu "nesneler" den oluşur. Bu yüzden bir tarayıcının özelliklere sahip olmaması gerektiğini söylüyor. Bir tarayıcının HTML ayrıştırıcı veya oluşturma motoru demesine gerek kalmaz, çünkü tüm bunlar nesneler tarafından uygulanmalıdır. Bu aynı zamanda standartları sevmemesinin sebebidir. İçerik tarayıcı tarafından değil, nesnenin kendisi tarafından oluşturulursa, bir standarda gerek yoktur.

Açıkçası bu, sayfaların mevcut tarayıcıların ve web standartlarının hataları ve sınırlamaları ile sınırlandırıldığı bugün web'den çok daha güçlü olacaktır.

Web'in mucidi Tim Berners-Lee'nin felsefesi neredeyse tam tersi. " En Az Güç Prensibi " dokümanı , HTTP, HTML, URL'ler vb. Altında yatan tasarım ilkelerini ana hatlarıyla belirtir. Örneğin, HTML gibi iyi tanımlanmış bir dilde bir dili bulmak, Google gibi arama motorlarını mümkün kılan analiz etmek daha kolaydır. Turing tamamlanmış kara kutu nesnelerin Kays ağında indeksleme gerçekten mümkün değildir. Bu yüzden nesneler üzerindeki kısıtların bulunmayışı aslında onları daha az kullanışlı hale getiriyor. Onları bulamazsanız güçlü nesneler ne kadar değerlidir? Ve standart bir bağlantı ve URLS kavramı olmadan, Googles sayfa sıralaması algoritması işe yaramadı. Ve bu konuda da yer imleri olmazdı.

Diğer bir konu içerik üretimidir. Şimdi çeşitli araçlara sahibiz, ancak en başından beri herhangi bir amatör not defterinde bir HTML sayfası yazmayı öğrenebilirdi. Bu, interneti başlatan ve orman yangını gibi yayılmasını sağlayan şeydi. Bir web sayfasını yapmanın tek yolunun kendi işleme motorunuzu programlamaya başlamanızı gerektirdiğini düşünün. Giriş engeli çok büyük olacaktır.

Java uygulamaları ve Silverlight bir dereceye kadar Kays'ın vizyonuna benzemektedir. Her iki sistem de web'den çok daha esnek ve güçlüdür (bunlara bir tarayıcı uygulayabileceğinizden dolayı), ancak yukarıda belirtilen sorunlardan muzdariptir. Ve her iki teknoloji de temel olarak suda ölü.

Tim Berners-Lee, interneti icat etmeden önce ağlar ve bilgi sistemleriyle ilgili deneyime sahip bir bilgisayar bilimcisiydi. Kay webin ardındaki fikirleri anlamıyor gibi görünüyor ve bu nedenle tasarımcıların bilgi işlem tarihi bilgisi olmayan amatörler olduğuna inanıyor. Fakat Tim Berners-Lee kesinlikle amatör değildi.


6
+1. Alan Kay'ın söylediklerinin çoğu, teori ile pratik arasındaki fark hakkındaki eski şakayı anlamayan bir insan gibi görünmesini sağlıyor. Yıllar boyunca uygulamada korkunç derecede başarısız olan ve “fikir piyasası” nda gerçekten iyi çalışan teorik olarak daha az hoş sistemler tarafından iyice yargılanan birçok büyük teori geliştirdi ve Kay bunu asla gerçekten anlamadı.
Mason Wheeler,

2
"HTML gibi iyi tanımlanmış bir bildirim dili". Bu zengin.
Andy

2
Tasarlanan amacı, köprü metni, html iyidir. Ancak bir uygulama platformu olarak sefil bir şekilde başarısız olur. Tek avantaj dağıtım ve platform agnostiği değildi. İnsanların bilgisayarda yaptığı tek şey arama yapmak değildir. Finansal planlama, oyunlar, sosyal etkileşimler, vs. Blackjack oyunumu arayamazsam kimin umrunda? Web uygulaması ve mobil uygulama arasında bir seçim yapıldığında, insanlar ezici bir şekilde yerel uygulamayı seçerler. Bunun bir nedeni var.
Andy

2
Hiç şüphe yok ki yerel uygulamalar daha güçlü, ancak bu gerçekten bir soru değil. Kay'a göre, web yalnızca yerel uygulamalar tarafından yapılmalı , HTML kullanılmamalıdır. Böyle bir ağ asla kopmazdı.
JacquesB

3
@Pacerier: Bunları yıllar önce Java uygulamaları ile ve ActiveX, Silverlight vb. İle zaten yapabildik. Web, HTML ile sınırlandırılmadığından bodur değildir, Java uygulamaları gibi kodlar da dahil olmak üzere herhangi bir medya formatını destekleyebilir. Cevapta belirttiğim nedenlerden ötürü pek yaygın olarak kullanılmıyor.
JacquesB

22

Bunu, Kay'ın yüksek seviye ağlardan çok daha temiz olduklarını varsaymak için alt seviye protokollere aşina olmadığından okudum. Bahsettiği “profesyoneller tarafından tasarlandı” dönemi, güvenlik (sahtekarlık hala çok kolaydır), güvenilirlik ve performans konularında hala büyük problemler yaşadı , bu yüzden hala yüksek hızda veya yüksek paket kaybı bağlantıları için her şeyi ayarlayan yeni bir çalışma var. Sadece biraz daha geriye gidin ve hostnames, insanların dağıtması gereken bir metin dosyasını arayarak çözüldü!

Her iki sistem de karmaşık heterojen sistemlerdir ve siğil düzeltmek istediğinizde önemli bir geriye dönük uyumluluk zorluğuna sahiptir. Problemleri tespit etmek kolaydır, bunları düzeltmek zordur ve başarısız olan rakipler dizisinin her ikisinin de gösterdiği gibi, aynı öğrenme eğrisini geçmeden eşdeğer bir şey tasarlamak şaşırtıcıdır.

Bir biyolog, akıllı bir tasarıma destek verdiğini söyleyebildiğinden, ikisinden birine bakar ve dahi tasarımını görürseniz, yeterince yakından bakmazsınız.


2
.Hosts dosyası hala hemen hemen her platformda kullanılıyor. Kötü amaçlı bir siteyi kara listeye almak için kullanışlıdır.
Rob K,

@RobK Kesinlikle - güncellemek için tools.ietf.org/html/rfc953 gibi şeyler kullanmasak bile, bu tarih çok derinleşiyor . Ancak bu günlerde, en yaygın kullanımın kötü amaçlı yazılım olup olmadığını merak ediyorum.
Chris Adams

10

Ahh evet, Alan'a bu soruyu defalarca sordum, örneğin Potsdam'dayken ve fonc mail listesindeyken . İşte benim için oldukça iyi bir şekilde özetleyen listeden daha yeni bir alıntı :

Kelimenin tam anlamıyla onlarca yıl daha fazla özellik eklemeye çalışmak ve henüz orijinal tarayıcıda yapılan makinelerde kullanılan yazılımla eşleşmemekle birlikte, yavaş yavaş başkaları tarafından yazılmış programları güvenli bir şekilde yürütmeleri gerektiği fikrine yaklaşıyorlar. Yalnızca son birkaç yıldır - Chrome'da Native Client ile - gerçekten hızlı programların bir SysAdmin'in iznine gerek kalmadan çalıştırılabilir olarak güvenli bir şekilde indirilebildi.

Çeşitli cevaplarını anlamam, web tarayıcılarının muhtemelen (Zenginleştirilmiş) belgeleri (HTML) görüntülememesi, basitçe programlar çalıştırması gerektiğini düşünüyor. Ben şahsen bunda yanlış olduğunu düşünüyorum, ama nereden geldiğini görebiliyorum. ActiveX, Java Applets, Flash ve şimdi "zengin" JavaScript uygulamaları ile zaten bu tür bir şey yaşadık ve deneyim genel olarak iyi değildi ve benim kişisel görüşüm, şimdi bile çoğu JavaScript ağır sitelerinin iyi HTML'den geri adım attığı yönünde siteler, ileriye bir durak değil.

Teorik olarak, elbette, her şey anlamlıdır: temelde ne olduğuna etkileşimli bir parça eklemeye çalışmak belge tanımı dili geriye doğru ve Ptolemaic sistemine gittikçe daha fazla epiklin eklemeye benzer, oysa "doğru" cevabının (zengin) ) metin bir program için özel bir durumdur ve bu nedenle sadece programlar göndermeliyiz.

Bununla birlikte, WWW’nin pratik başarısı göz önüne alındığında, teorilerimize uymamak için safra kesesi almak için WWW’yi çarpmak yerine teorilerimizi değiştirmenin akıllıca olacağını düşünüyorum.


1
Bu soruya, orijinal soru hakkındaki yorumumu görmeye geliyorum. Tarayıcıda ("işletim sistemi" olarak) yerel, güvenli kod çalıştırma yerine, temelde statik belgelerin (belki de kesinlikle tartışmalı) daha dinamik bir sürümü yerine, ne elde ettiğini düşünüyorum.
kalaracey

1
Evet, ancak zaten bir işletim sistemimiz var ve web üzerinden işletim sistemimizde çalıştırmak için programlar indirebiliriz, bu yüzden eğer bu işlevselliği istiyorsak, zaten sahibiz! Bu yüzden, tarayıcı, IMHO, kullanıcılar için farklı bir ihtiyacı karşılamakta, bir uygulama dağıtım platformu olarak web sürücüsüne, tedarikçi tarafından daha çok yönlendiriliyor gibi görünmektedir (serin parlak teknoloji + kolay dağıtım).
mpw

3
“Evet, ancak zaten bir işletim sistemimiz var ve web üzerinden işletim sistemimizde çalıştırmak için programlar indirebiliriz…” Ancak güven bu konuda. Bir gün içinde, ziyaret ettiğiniz web sitelerinin sayısıyla aynı sayıda yerel uygulamayı makinenize indirmezsiniz, çünkü yalnızca güvendiğiniz uygulamaları (uygulamanın üreticisi) / doğrulayın (MD5 / SHA), • tanımadığınız kişilerden onlarca (yüzlerce) körü körüne indirin. OTOH, tarayıcıyı bir işletim sistemi olarak kullanarak, her iki dünyanın da en iyisini elde edin!
kalaracey

@mpw hayır, tarayıcı bunu yerine getirmiyor. Tarayıcı "uygulamalar" korkunç, çünkü tarayıcıyı olmayan bir şey olarak kullanmaya çalışıyorlar. Kontrollerin en temelini sunar ve JavaScript, zengin masaüstü kontrol grubuna yakın bir şey uzaktan denemek ve yapmak için kullanılır. Kayların vizyonunu öne çıkaran şey Microsoft, Apple ve Google'dan gelen uygulama mağazaları. Uygulamalar yükselmeye devam ettikçe normal kullanıcıların tarayıcıları daha az kullanacaklarından şüpheleniyorum. Web hala orada olacak ama uygulamaların arkasında perde arkasında kullanılacak.
Andy

@mpw, Buna sahip olmalıydık, ama şu an sahip değiliz . Tarayıcımda Eclipse'ı çalıştırmanın URI'sı şimdi nedir? Hiçbiri yok. Sorun bu. Alan'ın vizyonuyla Tim'in kısa görüşlü viral fikri arasındaki fark budur. Tim'in topal düşüncesiyle, tarayıcınızdan işletim sisteminize bir URI kullanarak Eclipse'i indirmeniz ve ardından tarayıcının dışında el ile çalıştırmanız gerekir. Alan'ın fikrine göre, bir URI kullanarak basitçe indir-önbellek-çalıştırması Eclipse. Tim icat etmedi web öldürdüğü, bunu onun topal, perişan "sahte" ürünüyle. ...
Pacerier

4

İnternet ya da Web'in amatörler ya da profesyoneller tarafından icat edildiğini söyleyemezsiniz, çünkü bu alanlar kesinlikle yenidir; İnternet protokollerinde bütün insanlar icat edilmeden önce amatördü, bu yüzden bir bakıma İnternet'in mucitleri de amatörlerdi.

Eğer gerçekten yargılayıcı olsaydık, İnternet her şeyden önce çok iyi değildi: IPv6 gerekli. Ve sadece adres alanı ile ilgili değil; IPv6'da daha az ve farklı alanlara sahip yeni bir başlık var.

İnternetten ve Web'den bir diğer büyük fark, programcı tarafından nasıl algılandıklarıdır; bir programcı nadiren İnternet ile etkileşime girer. IP açısından bakış açısına göre adresleriniz var ve TCP’de ek olarak bir bağlantı noktanız var ve paketlerin gönderildiğinden emin olabilirsiniz. Bu konuda ... Web'de programcı daha yoğun bir etkileşime sahipken: HTTP yöntemleri, başlıklar, HTML, URL'ler vs. Neredeyse hiç imkanı olmayan bir şeyden çok daha fazla olasılığı olan bir şeyin sınırlarını görmek normaldir. Bununla İnternet'in basit olduğunu söylemek istemiyorum:

Bu iki teknolojinin büyüklüğü ile ilgili olarak, İnternet çok takdir edilmektedir, çünkü çok ölçeklenebilir bir teknolojidir ve katmanlama fikri çok iyiydi; Temelde daha düşük seviyelerde, istediğiniz herhangi bir teknolojiyi (WLAN, Ethernet, Token Ring vb.) kullanabilir ve hangi TCP ve UDP'nin üzerine yerleştirileceği ve üzerine istediğiniz uygulama protokolünü ekleyebileceğiniz standart bir ara protokol olarak IP'ye sahip olabilirsiniz.

Web’in büyüklüğü, kesinlikle İnternet’in büyüklüğü ile ilgilidir, çünkü Web, İnternet üzerinde güçlü bir şekilde güvenmekte olup, altında TCP / IP yığını bulunmaktadır. Ancak, İnternet’in de Web’e bağlı olduğunu söyleyebilirim; İnternet, Web’den 20 yıl önce varlığını sürdürüyordu ve isimsizdi, ancak Web’den 20 yıl sonra, İnternet her yerde ve bu sayede Web sayesinde.


10
Bu tam olarak doğru değil. Vinton Cerf, lisansüstü okulda veri paketi ağları üzerinde çalıştı ve Bob Kahn, ARPA'nın bilgi işlem teknolojileri ofisinde çalıştı, bu yüzden ikisi de TCP / IP geliştirdiklerinde profesyoneldiler. Berners-Lee, diğer taraftan, parçacık fiziğindeydi.

2
@ GrahamLee Berners-Lee fizikte değildi; 1980’deki wikipedia’a göre CERN’de “araştırmacılar arasında bilgilerin paylaşılmasını ve güncellenmesini kolaylaştırmak için köprü metni kavramına dayanan bir proje önerdi”. 1981'den 1984'e kadar "üzerinde çalıştı, bilgisayar ağlarında tecrübe kazandıran gerçek zamanlı bir uzaktan prosedür çağrısı yapıldı." Yani 1989-1990 tarihine kadar amatör değildi ... her iki
alıntıda

O zaman cevabın daha fazla problemi var: "tüm insanlar amatördü" tarafından kapsanan herkes amatör değil:

@GrahamLee Biz mutlakçı olmak istiyorsak; Bunu yazarken von Neumann'ın bilgisayar mimarlığı alanında gerçekten profesyonel olmadığına inanma eğilimindeyim - en.wikipedia.org/wiki/First_Draft_of_a_Report_on_the_EDVAC - temelde bitmedi ve çoğu için mavi baskıyı temsil ediyor günümüzde kullanılan bilgisayar mimarisi. O zaman von Neumann Manhattan projesiyle meşguldü ve ondan önce bilgisayar mimarisi diye bir şey yoktu (ya da Babbage’ye gidip aynı şeyi söyleyebiliriz).
m3th0dman

1
Hayır, değildi, bir matematikçiydi. Her ne kadar insanlar onlarca yıldır von Neumann (veya daha iyisi

4

Sanırım daha az belirsiz bir şeye işaret ediyordu - TBL 60'lardan beri devam eden köprü metni çalışmaları hakkında hiçbir şey bilmiyordu, bu yüzden bu çalışma web'in tasarımını bilgilendirmedi. Sık sık uygulayıcıların tarihlerini bilmediği ve sürekli olarak "patlak lastiği yeniden icat ettiği" bir pop kültürü olarak bilgi işlemden bahsediyor.


4

İnternet Baran, Pouzin ve çağdaşları tarafından keşfedilen paket anahtarlama konseptinin bir prototipi olarak oldukça iyi çalıştı. Bu, popüler düşüncenin aksine, IPv4'ün teslim edildiği şekliyle mükemmel protokol mimarisi olduğu veya IPv6'nın gideceği yol olduğu anlamına gelmez. ARPANET ve IP'nin gelişimine derinden katılan John Day, bunu 2008 Ağ Mimarisi Desenleri kitabında açıklıyor .

Web’e gelince, Richard Gabriel’in dediği gibi “Daha da kötüsü iyidir”. Tim Berners-Lee'nin hesabı, Dokuma Web , terbiyeli. Web , Gillies & Cailliau tarafından Nasıl Doğdu? Daha yoğun ve daha az okunaklı, ancak kişisel bilgi işlemdeki diğer olaylarla çok fazla ayrıntıya ve etkileyici bağlantılara sahip. Kay'in yeterli kredi verdiğini sanmıyorum.


1

Bilmiyorum, internet dışı internetin bir kısmının korkunç siğilleri var. E-posta webin önündeydi ve internetin bir parçasıydı ve standart çok açık ve spam sorunuyla başa çıkmak (ama çözmemek) için çok fazla saldırı istiyor.


3
İnternet üzerinden tcp / ip'i ve web üzerinden, e-postadan ziyade http / html / javascript'i kastettiğini düşünüyorum. Tarayıcı hakkında konuşmaya devam ediyor.
kalaracey

E-posta, internete tam olarak web ile aynı şekilde bağlıdır; bu nedenle, web'i ayrı bir şey olarak adlandırmakla birlikte, e-posta da dahil olmak üzere "internetin bir parçası" olarak adlandırılması, açıkça belirtildiği gibi açıktır. Dahası, Kay, tıpkı Pasifik Okyanusu'nu yaptığımız gibi, verilen net parayı aldığımızı söyledi. Yanıtınızdaki e-posta hakkında konuşmaya başlamanız gerçeği hemen hemen kanıtlıyor. :-)
The Pellmeister

0

"Amatör", programlama becerisinin eksikliğini değil, hayal gücünün eksikliğini ifade eder.

Tim Berners-Lee'nin ağındaki asıl sorun, geliştiriciler için hiçbir zaman inşa edilmemiş olmasıdır . (Bu Alan Kay'ın ağının tam aksine).

Tim'in web sitesi, HT-markup-language ile serpiştirilmiş dergilerini / makalelerini içeren dosyalarla uğraşarak doğrudan web'de yayınlayacak kodlayıcı olmayanlar için üretildi : 1980'lerin WordPerfect ve MS-Word'leri kullanması dışında, " <b> < / b> " Bsimgesine tıklamak yerine, onu özel bir" .doc "biçimi yerine açık bir" .htm "biçiminde kaydeder. Buradaki buluş , bu statik dergilerin / makalelerin global olarak birbirine bağlanmasına izin veren " <a> " etiketidir.

İşte bu, Tim'in bütün web vizyonu: web, birbirine bağlı statik parçacıkların sadece global bir karayolu . Belki paranız olsaydı , simgeye tıklayarak tüm bu " <b> </b> " etiketlerini oluşturmanıza yardımcı olacak Dreamweaver, Nexus , Publisher, Citydesk ( ? ) Vb. Gibi bir editör satın alabilirsiniz .B

..Ve vizyonunun amaçlandığı gibi çalışmadığını görüyoruz. Aslında, dünyanın başından beri Tim'in vizyonunun sunduğundan çok daha fazlasını istediği kudretli kırmızı bayraklar var:

  • Kırmızı bayrak 1: "smart CGI" (PHP) 'nin hızlı yükselişi.

  • Kırmızı bayrak 2: "Akıllı HTML" nin hızlı yükselişi (Javascript).

Bu günlerde, Chrome-OS'un tarayıcıda olduğu- OS'dur ( tam olarak Alan Kay'ın tarayıcının btw olmasını istediği gibi) ve WASM / tarayıcı uzantıları gibi daha da kırmızı bayraklara sahibiz .


Tim'in webinin aksine, Alan Kay'ın webi, programcılar için inşa edilmiş dinamik bir ağdır: birbirine bağlı dinamik- programların global bir karayolu . Bir "sayfaya" ihtiyaç duyan kodlayıcılar , web üzerinde bir program kullanarak bir tane yayınlarlardı . (Ve programın kendisi açıkça HTML-babaları tarafından değil, programcılar tarafından yazılmıştır.)

..Bu, 2000’lerde Tim’in webinin statükosudur, ancak Alan’ın web’si olsaydı, 1990’larda yapıldı: Dünya, sadece 2000’lerde “wordpress ve friendster” ı kullanmak yerine, biz sadece Web 1990'larda başladığında haklısın

.. Benzer şekilde, 2040'larda web üzerinden Steam, Visual Studio, Warcraft, VM Ware gibi programlar yapmak yerine, bunları 2010'larda şimdi yapacağız. (Çoklu on yıl gecikme bu programlar nedeniyle zaten onları üzerinde yeniden inşa edilmesi için böylece ekonomik teşvik azaltarak, OS-is-not-tarayıcı için inşa edilmiş olan OS-is-tarayıcı-is- -İŞLETİM SİSTEMİ.)

Yani bu onlar Tim Berners-Lee dünyanın üzerine "perişan statik web" iterek Gerçek Dinamik Web öldürdüğünü derken insanın anladığı şeydir. Hiç "web 2.0", "web 3.0" terimlerini duydunuz mu? Tim'in web yerine Alan'ın internetine sahip olsaydık, basitçe "Web" olarak adlandırılırdı. Ancak Tim'in webinin sürekli revizyona ihtiyacı var çünkü çok statik .

Açıkçası, web satıcılarının tanımladığı şekilde Web yeniden düzenlenebilir, çünkü tüm umutlar kaybolmaz. Fakat mesele şu ki, şu anda web'de "icat ettikleri" tüm bu "kanama kenarı" şeyleri zaten uzun zaman önce icat edilmiş olan şeyler. Bugün zaten hepsine sahip olabilirdik, yarın değil.

Sitemizi kullandığınızda şunları okuyup anladığınızı kabul etmiş olursunuz: Çerez Politikası ve Gizlilik Politikası.
Licensed under cc by-sa 3.0 with attribution required.