BAŞKA BİR VİDEO DAHA? 🎲 RASTGELE İZLE

Derin web, derin net görünmez web, ya da gizli bir web içeriği herhangi bir nedenle standart arama motorları tarafından dizine değil World Wide Web’in parçalarıdır. derin web yüzey web tersidir.

derin web, web posta, çevrimiçi bankacılık ama aynı zamanda talep üzerine video ve daha birçok gibi bir paywall ile hizmetler için ödenen gibi birçok çok yaygın kullanımları kapsamaktadır.

Bilgisayar bilimcisi Mike Bergman arama indeksleme terimi olarak 2000 yılında dönem derin web basma ile yatırılmaktadır.

Derin web arama terminoloji Freenet darknet üzerinde yer alan yasadışı faaliyetleri yanında tartışıldı zaman terimleri “derin web” ve “karanlık ağın” ilk Conflation 2009 yılında ortaya çıktı.

O zamandan bu yana, İpek Yolu’nun medya raporlama kullanımı, birçok kişi ve medya, karanlık web veya darknet, Parlak Gezegen olarak yanlış reddeder ve dolayısıyla karışıklık devam eden bir kaynağı olan bir karşılaştırma ile eşanlamlı Derin Web kullanarak almış. Kablolu gazetecilere Kim Zetter ve Andy Greenberg terimleri farklı moda kullanılacak öneriyoruz.

büyük bir net yakalandı olabilir, ama derin ve bilgi hazinesi vardır: 2000 yılında, Michael K. Bergman okyanus yüzeyi boyunca bir net sürükleyerek mukayese edilebilir internette arama nasıl söyledi Bu nedenle kaçırdı. Web kullanıcısı bilgilerin çoğu kadar aşağı sitelerde gömülü ve standart arama motorları bunu bulmuyorum. Geleneksel arama motorları bakın veya derin web içeriği alamıyor. Standart arama motorları tarafından dizine web bölümü yüzeyi web olarak bilinir. 2001 yılı itibariyle, derin web yüzey web daha büyük birkaç kat oldu. Denis Shestakov tarafından kullanılan bir buzdağının bir benzetme yüzey web ve sırasıyla derin web arasındaki bölünmeyi temsil eder:

Üzerinde tahminleri koymak ölçmek imkansız ve sert, derin web boyutu bilgilerin çoğunluğu gizli veya veritabanları içinde kilitli olduğundan. İlk tahminlere göre derin web yüzey web 400’den 550 kat daha büyük olduğunu ileri sürdü. Daha fazla bilgi ve siteler her zaman ilave ediliyor beri Ancak, derin web sayısal edilemez bir oranda katlanarak büyüyor kabul edilebilir.

2001 yılında University of California, Berkeley yapılan bir çalışmada yapılan değerlendirmelere dayanmaktadır Tahminler derin web yaklaşık 7,5 petabayt oluştuğunu tahmin ediyor. Daha doğru tahminler derin web kaynaklarının sayısı için kullanılabilir: ark He araştırma. Shestakov göre, 2004 yılında tüm web etrafında 300.000 derin web sitelerini tespit ve yaklaşık 14.000 derin web siteleri, 2006 yılında Web Rus kesiminde var.

Bergman, Elektronik Yayıncılık Dergisi’nde yayınlanan Derin Web üzerinde ufuklar kağıt, Jill Ellsworth herhangi bir arama motoru ile kayıtlı değildi web sitelerine başvurmak için 1994 yılında vadeli Görünmez Web kullanıldığı belirtti. Bergman Frank Garcia tarafından Ocak 1996 makaleye atıf:

Bu muhtemelen oldukça tasarlanmış bir site olurdu, ama onlar arama motorlarında herhangi biriyle kaydetmek için uğraşmadı. Yani, hiç kimse bunları bulabilirsiniz! Gizli sensin. Görünmez Web diyoruz.

vadeli Görünmez Web başka erken kullanımı Aralık 1996 basın açıklamasında bulundu 1. Derin Web aracı bir açıklama, Bruce Dağı ve Kişisel Kütüphane Yazılımı Matthew B. Koll oldu.

Belirli süreli derin web, şimdi genel olarak kabul ilk kullanımı, yukarıda belirtilen 2001 Bergman çalışmasında meydana geldi.

Geleneksel arama motorları tarafından dizine olmaktan web sayfalarını engellemek Yöntemler aşağıdakilerden biri veya daha fazlası gibi kategorize edilebilir:

Bağlamsal Web: farklı erişim bağlamlar için değişen içerikli sayfalar (örneğin, istemci IP adreslerinin veya önceki navigasyon dizisinin aralıkları).
Dinamik içerik: (metin alanları gibi) açık alan giriş elemanları kullanılmaktadır, özellikle sadece bir form aracılığıyla gönderilen sorgusuna yanıt olarak döndürülen veya erişilen dinamik sayfalar; Bu tür alanlar alan bilgisi olmadan gezinmek için zordur.
Sınırlı erişim içeriği: (Robots Dışlama Standart veya CAPTCHA veya bunları tarama ve önbelleğe alınmış kopyalarını oluşturmak arama motorları yasaklayan no-store yönergesi kullanılarak, örneğin) bir teknik şekilde kendi sayfalarına erişimi sınırlamak siteler.
Sigara HTML / metin içeriği: multimedya (resim veya video) kodlanmış metinsel içerik dosyaları veya arama motorları tarafından işlenen belirli dosya formatları.
Özel Web: kayıt ve giriş (şifre korumalı kaynaklar) gerektiren siteler.
Scripted içerik: dinamik Flaş veya Ajax çözümleri aracılığıyla Web sunucularından indirilen içerik yanı sıra JavaScript tarafından üretilen bağlantılar aracılığıyla sadece erişilebilir sayfalar.
Yazılım: Belirli içerik kasıtlı sadece bu tür Tor, I2P veya diğer Darknet yazılımlar gibi özel yazılımlar, erişilebilir, düzenli internet, gizlenir. Örneğin, Tor kullanıcıların IP adresinizi gizleyerek anonim .onion konak eki kullanarak web sitelerine erişim sağlar.
Unlinked içerik: içeriğe erişmesini web tarama programları engelleyebilir başka sayfalar tarafından bağlı değildir sayfalar. Bu içerik geri olmadan sayfalar (ayrıca inlinks olarak da bilinir) olarak ifade edilir. Ayrıca, arama motorları her zaman aranan web sayfalarından tüm geri algılamaz.
Web arşivleri: Böyle Wayback Machine gibi Web arşiv hizmetleri erişilemez hale gelmiştir ve Google gibi arama motorları tarafından dizine olmayan web siteleri de dahil olmak üzere, zaman içinde web sayfalarının arşivlenmiş versiyonlarını görmek için olanak sağlamak.

o dizine olabilir, böylece doğrudan belirli bir web sunucusunun içeriğini keşfetmek her zaman mümkün olmasa da, bir site potansiyel (nedeniyle bilgisayar güvenlik açıklarına) dolaylı olarak ulaşılabilir.

Web’de içerik keşfetmek için arama motorları bilinen protokol sanal port numaraları aracılığıyla köprüler izleyin web tarayıcılarının kullanımı. Bu teknik yüzey web üzerinde içerik keşfetmek için ideal ama genellikle derin web içeriği bulma etkisizdir. Örneğin, bu tarayıcıların nedeniyle mümkün sorguları belirsiz sayıda veritabanı sorgu sonucu dinamik sayfaları bulmak için çalışmayın. (Kısmen) sonuçları sorgulamak için bağlantılar sağlayarak aşılabilir, ancak bu istemeden derin ağın bir üyesi için popülerlik şişirmek olabilir dikkat edilmiştir.

DeepPeep, Intute, Derin Web Teknolojileri, Scirus ve Ahmia.fi derin web erişmiş bir kaç arama motorları bulunmaktadır. Intute fon dışarı koştu ve Scirus Ocak 2013 sonuna yakın emekli Temmuz 2011 tarihinden itibaren artık geçici bir statik bir arşiv.

Araştırmacılar derin web Tor gibi özel bir yazılım sadece erişilebilir içerik dahil olmak üzere, bir otomatik moda sürünerek nasıl keşfetmek olmuştur. 2001 yılında, Sriram Raghavan ve Hector Garcia-Molina (Stanford Bilgisayar Bilimleri Bölümü, Stanford Üniversitesi) bir Web formu sorgulamak ve taramaya sorgu arayüzleri kullanıcılar tarafından sağlanan ya da toplanan anahtar terimleri kullanılan gizli-Web tarayıcısı için bir mimari modeli sundu derin Web içeriği. Alexandros Ntoulas, Petros Zerfos ve UCLA Junghoo Cho otomatik olarak oluşturulan anlamlı sorgular arama biçimlerine karşı vermek için gizli bir-Web paletli) oluşturuldu. Çeşitli biçim sorgu dilleri (örneğin, DEQUEL) bir sorgu veren yanı sıra, aynı zamanda sonuç sayfalarında yapılandırılmış veri çıkarma izin olduğu öne sürülmüştür. Başka bir çaba DeepPeep, roman odaklı paletli tekniklerine dayalı farklı etki gizli-web kaynakları (web formları) toplanan Ulusal Bilim Vakfı tarafından desteklenen Utah Üniversitesi’nden bir projedir.

Ticari arama motorları derin web’i taramak için alternatif yöntemler keşfetmek başladı. Site haritası Protokolü (ilk kez 2005 yılında Google tarafından geliştirilen ve tanıtılan) ve mod OAI arama motorları ve diğer ilgili taraflar, özellikle web sunucularında derin web kaynakları bulmak için izin mekanizmalardır. Her iki mekanizma böylece doğrudan yüzey web bağlantılı olmayan kaynakların otomatik keşfini sağlayan, web sunucuları onlara erişilebilir URL’leri tanıtımı için izin verir. Google’ın derin web yüzey sistemi her HTML formu için gönderimler hesaplar ve Google arama motoru dizin içine sonuçlanan HTML sayfaları ekler. yüzeyli sonuçlar derin web içeriği saniyede bin sorgular oluşturmaktadır. Bu sistemde, başvuru ön hesaplama üç algoritma kullanılarak yapılır:

Anahtar kelimeleri kabul metin arama girişleri için giriş değerleri seçilerek,
belirli bir tip (örneğin tarih) tek değerleri kabul girdileri belirlenmesi ve
Web arama indeksi eklemek için uygun URL’ler oluşturmak girdi kombinasyonları az sayıda seçilmesi.
2008 yılında, kendi erişim ve gizli .onion sonek arama Tor gizli servisleri kullanıcıları kolaylaştırmak için, Aaron Swartz ortak web tarayıcıları aracılığıyla erişim sağlamak mümkün Tor2web-bir proxy uygulaması tasarlanmış. Bu uygulamayı kullanarak, derin web bağlantıları .onion TLD ardından harflerin rasgele bir dize olarak görünür.

İnternet’in Karanlık Yüzünde Yaşayan Kanunsuz İnsanlar ve Yaptıkları07:00

  • 2,072,583 kez izlendi

📝 BU KONUDA SENİ EN ÇOK ŞAŞIRTAN NE OLDU?