การหลีกเลี่ยงการวิจัย Blockchain Balkanization

โดย Everett Muzzy และ Mally Anderson

จัดลำดับความสำคัญของความสามารถในการทำงานร่วมกัน

งานชิ้นนี้เป็นชิ้นแรกในซีรีส์ที่สำรวจสถานะและอนาคตของฟังก์ชันการทำงานที่ทำงานร่วมกันได้ในระบบนิเวศบล็อกเชน เราให้คำจำกัดความ “ความสามารถในการทำงานร่วมกัน” ที่นี่เป็นความสามารถสำหรับ blockchains ในการแลกเปลี่ยนข้อมูลระหว่างแพลตฟอร์มซึ่งรวมถึงข้อมูลและธุรกรรมนอกเครือข่ายโดยไม่ต้องอาศัยความช่วยเหลือจากบุคคลที่สาม จากการตรวจสอบความก้าวหน้าของสถาปัตยกรรม Web2 ตั้งแต่ทฤษฎีแรกเริ่มจนถึงการนำไปใช้จำนวนมากชุดนี้ระบุว่าความสามารถในการทำงานร่วมกันของโปรโตคอลบล็อกเชนนั้นไม่ได้เป็นเพียงข้อกำหนดพื้นฐานในการตระหนักถึงศักยภาพทั้งหมดของเทคโนโลยี ซีรีส์นี้แสดงให้เห็นว่าระบบนิเวศกำลังตกอยู่ในอันตรายจาก“ Balkanization” ได้อย่างไรนั่นคือ กลายเป็นชุดของระบบที่ไม่ได้เชื่อมต่อซึ่งทำงานควบคู่กันไป แต่กลับแยกออกจากกัน – เมื่อเผชิญกับการแข่งขันและแรงกดดันทางการค้า เพื่อให้ระบบนิเวศจัดลำดับความสำคัญของความสามารถในการทำงานร่วมกันได้ระบบจะต้องสร้างชั้นการชำระบัญชีที่ปลอดภัยกระจายอำนาจและเชื่อถือได้ซึ่งบล็อกเชนที่ดำเนินการพร้อมกันสามารถยึดธุรกรรมของตนได้ ด้วยสถานะปัจจุบันของระบบบล็อกเชนสถาปัตยกรรมของ Ethereum มีความคล้ายคลึงกับสิ่งที่จำเป็นสำหรับห่วงโซ่รากสากลนี้มากที่สุด.

ความเสี่ยงของ Balkanization

ปัญหาของสถาปัตยกรรม Web2 ในปัจจุบันโดยเฉพาะอย่างยิ่งการปิดกั้นช่องโหว่และการจัดการข้อมูลผู้ใช้ที่ผิดพลาดนั้นสามารถตรวจสอบย้อนกลับได้ถึงความเบี่ยงเบนของอุตสาหกรรมจากค่าอินเทอร์เน็ตในยุคแรก ๆ ซึ่งเดิมให้ความสำคัญกับการทำงานร่วมกันเป็นกุญแจสำคัญในโลกที่เชื่อมต่อกับเว็บที่ยั่งยืนและเท่าเทียมกัน ในปัจจุบันระบบนิเวศของบล็อกเชนมีความเสี่ยงที่จะเกิด“ balkanization” ที่คล้ายคลึงกันซึ่งความสามารถในการทำงานร่วมกันของโปรโตคอลจะถูกลดความสำคัญลงเนื่องจาก บริษัท ต่างๆแข่งขันกันเพื่อแสดงกรณีการใช้งานของบล็อกเชนของตนเองได้เร็วกว่าคู่แข่ง ความเสี่ยงคือแรงกดดันสำหรับการนำกระแสหลักมาใช้ก่อนที่โครงสร้างพื้นฐาน Web3 จะทำงานร่วมกันได้อย่างเพียงพอและปลอดภัยที่จะแสดงวิสัยทัศน์ทั้งหมดของสถาปนิกดั้งเดิม Web3 อาจดูเหมือนกับ Web2 ในปัจจุบันในแง่ของการกีดกันทางการเงินการเก็บข้อมูลและความไม่ปลอดภัยของข้อมูล แต่จะถูกเขียนทับโดยชุดบล็อกเชนซึ่งโดยการออกแบบที่แข่งขันกันไม่ได้ทำงานร่วมกันในระดับโปรโตคอล.

บทเรียนจากอินเทอร์เน็ตยุคแรก

เว็บได้รับการพัฒนาโดยเป็นโครงการวิจัยทางวิชาการที่ได้รับทุนสนับสนุนจากสาธารณะโดยเริ่มตั้งแต่ปี 1960 เพื่อเพิ่มขีดความสามารถของมนุษย์ในการสร้างส่งและแบ่งปันข้อมูล การทำซ้ำข้อมูลออนไลน์ในช่วงต้นอยู่ในรูปแบบของข้อความและรูปภาพพื้นฐานเชื่อมต่อและแบ่งปันโดยเว็บของไฮเปอร์ลิงก์ ตั้งแต่นั้นเป็นต้นมา“ ข้อมูล” บนเว็บได้พัฒนาขึ้นเพื่อแสดงถึงการเป็นเจ้าของเนื้อหา (โดยเฉพาะเงิน) โปรไฟล์ผู้ใช้และข้อมูลประจำตัว (โดยเฉพาะชิ้นส่วนดิจิทัลที่กระจัดกระจายของตัวตนของคน ๆ หนึ่ง).

ไม่ว่าคำจำกัดความของข้อมูลที่แสดงในรูปแบบดิจิทัลจะมีความหมายกว้างเพียงใดทฤษฎีการจัดการข้อมูลออนไลน์พบว่ามีรากฐานมาจากทฤษฎีเว็บในยุคแรก ๆ ในขณะที่สร้างวิวัฒนาการต่อไปในการส่งข้อมูลผู้บุกเบิกอินเทอร์เน็ตยุคแรก ๆ พยายามที่จะตรวจสอบให้แน่ใจว่าข้อมูลบนเว็บจะไหลในลักษณะที่เลียนแบบพฤติกรรมมนุษย์ตามธรรมชาติ Tim Berners-Lee ผู้ประดิษฐ์ World Wide Web วางตำแหน่งภารกิจของเขาในการสร้างโครงสร้างเว็บที่ช่วยให้สามารถส่งข้อมูลได้อย่างมีมนุษยธรรม ในทางตรงกันข้าม ไปจนถึงโครงสร้างลำดับชั้นของ บริษัท – จนถึงจุดนั้นโครงสร้างที่โดดเด่นอย่างหนึ่งที่มนุษย์ผลิตและจัดการข้อมูลจำนวนมาก ในขณะที่โครงสร้างจากบนลงล่างที่เข้มงวดของ บริษัท พยายามที่จะกำหนดการเคลื่อนย้ายข้อมูลในลักษณะที่เป็นที่ยอมรับมีแบบแผนและสามารถตรวจสอบย้อนกลับได้ แต่ความเป็นจริงของวิธีการสื่อสารและแบ่งปันของผู้คนนั้นยุ่งเหยิงกว่าและไม่มีรูปร่างมากขึ้น เพื่อเลียนแบบการแลกเปลี่ยนข้อมูลทางสังคมแบบเพียร์ทูเพียร์ตามธรรมชาติ Berners-Lee แนะนำความเรียบง่ายในสถาปัตยกรรมเว็บ ด้วยการนำเสนอเพียงกระดูกที่เปลือยเปล่าของระบบดิจิทัลข้อมูลสามารถเติบโตและพัฒนาได้อย่างเป็นธรรมชาติที่สุดและด้วยเหตุนี้จึงต้องปรับขนาดได้ นาทีที่“ วิธีการจัดเก็บ…วาง [d] พันธนาการของมันเอง” เกี่ยวกับวิธีที่สามารถถ่ายโอนข้อมูลได้ เบอร์เนอร์ส – ลียืนยันความเชื่อมั่นของเขาว่าเว็บควรเลียนแบบโครงสร้างตามธรรมชาติโดยอธิบายการเติบโตของเว็บว่าเป็น “การสร้างเซลล์ภายในสมองทั่วโลก” [แหล่งที่มา] และหวังว่าสักวันมันอาจจะ “สะท้อน” วิธีที่มนุษย์โต้ตอบเข้าสังคมและใช้ชีวิตในแต่ละวัน [แหล่งที่มา].

เป้าหมายของการบรรลุข้อมูลดิจิทัลที่ปรับขนาดได้และส่งผ่านอย่างเห็นอกเห็นใจนั้นขึ้นอยู่กับแนวคิดที่สำคัญนั่นคือ“ ผลกระทบจากจุดสิ้นสุด” [แหล่งที่มา]. ผลกระทบแบบ “end to end” หมายความว่าผู้ใช้อินเทอร์เน็ต (กล่าวคือผู้ที่อยู่ในจุดสิ้นสุดของการส่งข้อมูลส่วนใดส่วนหนึ่ง) ได้สัมผัสกับข้อมูลนั้นในลักษณะที่สอดคล้องกัน มนุษย์จำเป็นต้องสามารถปรับใช้พฤติกรรมซ้ำ ๆ ที่จะทำให้พวกเขาสามารถดึงข้อมูลประมวลผลและส่งข้อมูลในลักษณะเดียวกันทุกครั้งที่โต้ตอบกับเว็บ ระบุไว้แตกต่างกัน เทคโนโลยี ข้อมูลส่วนหนึ่งที่ให้บริการแก่ผู้บริโภคจะต้องทำในวิธีการที่สอดคล้องกันครั้งแล้วครั้งเล่าในพื้นที่ภูมิศาสตร์และประเภทเนื้อหา.

ผลกระทบแบบ end-to-end สามารถทำได้สองวิธี: 1) บุคคลที่สามสามารถตั้งตัวเองเป็นคนกลางโดยให้บริการในการแสดงข้อมูลในรูปแบบที่สอดคล้องกันเนื่องจากถูกส่งจากจุด A ไปยังจุด B บริษัท เหล่านี้และวิศวกรของพวกเขาจะ “ ต้องเรียนรู้ศิลปะในการออกแบบระบบ” เพื่อเจรจาและควบคุมการส่งผ่านข้อมูลผ่านขอบเขตดิจิทัลที่แยกโปรโตคอลที่เข้ากันไม่ได้ 2) ตัวเลือกที่สองมีไว้สำหรับโปรโตคอลทั้งหมดซึ่งข้อมูลอาจจำเป็นต้องส่งผ่านเพื่อให้สามารถทำงานร่วมกันได้เพื่อให้แน่ใจว่าข้อมูลสามารถเดินทางจากผู้ใช้ไปยังผู้ใช้ได้อย่างราบรื่นโดยไม่มีอุปสรรคที่จะต้องมีการเจรจาเพิ่มเติมเพื่อฝ่าฝืน ความสามารถในการทำงานร่วมกันของโปรโตคอลแบบเนทีฟจะสร้าง “end to end effect” โดยอัตโนมัติแทนที่จะอาศัยบุคคลที่สามที่แสวงหาประโยชน์เพื่อให้ความสม่ำเสมอนั้นอยู่เบื้องหลัง.

จากสองวิธีนี้ความสามารถในการทำงานร่วมกันเป็นแนวทางที่ต้องการของผู้ที่เป็นผู้นำในการพัฒนาเว็บในยุคแรก ๆ เบอร์เนอร์ส – ลีมักอธิบายเป้าหมายนี้ว่า“ ความเป็นสากล” โดยบอกว่าอนาคตของเว็บจะมีโปรโตคอลที่แตกต่างกันหลายชุด แต่ทั้งหมดจะมีอยู่ใน macrocosm เดียวกันดังนั้นจึงมั่นใจได้ว่าสามารถใช้งานร่วมกันได้ เบอร์เนอร์ส – ลีเรียกร้องให้นักเทคโนโลยีพิจารณาว่าการทำงานร่วมกันแบบสากลเป็นเป้าหมายที่สำคัญมากกว่า“ เทคนิคกราฟิกแฟนซีและสิ่งอำนวยความสะดวกพิเศษที่ซับซ้อน”แหล่งที่มา]. เขารู้สึกว่ามันมีความสำคัญน้อยกว่าที่จะยอมจำนนต่อความต้องการที่เพิ่มขึ้นเพื่อผลกำไรและการค้า (ซึ่งต้องการกราฟิกที่สวยงามและสิ่งอำนวยความสะดวกเพิ่มเติม) มากกว่าที่จะมุ่งเน้นไปที่การออกแบบโปรโตคอล.

ในขณะที่การค้าเร่งขึ้นและจุดเริ่มต้นของอินเทอร์เน็ตในที่สาธารณะค่อยๆลดลงจึงได้นำเสนอสิ่งจูงใจชุดใหม่ให้กับอุตสาหกรรมการศึกษาส่วนใหญ่ก่อนหน้านี้ เป็นผลให้ชุดมาตรฐานที่ไม่สามารถแก้ไขได้เริ่มปรากฏขึ้นเมื่อ บริษัท เอกชนแข่งขันกันเพื่อทำผลงานได้ดีกว่าซึ่งคุกคามการแยกส่วนที่ไม่สามารถแก้ไขได้ของระบบนิเวศของเว็บ การสร้างระบบแยกส่วนแต่ละระบบนั้นตรงกันข้ามกับการเพิ่มประสิทธิภาพทางเศรษฐกิจในระยะยาว ในเอกสารพื้นฐานฉบับหนึ่งของอินเทอร์เน็ต Paul Baran ตั้งข้อสังเกตในปี 1964 ว่า“ ในการสื่อสารเช่นเดียวกับการขนส่งผู้ใช้จำนวนมากจะแบ่งปันทรัพยากรร่วมกันมากกว่าแต่ละคนเพื่อสร้างระบบของตนเอง” ในปี 1994 World Wide Web Consortium ก่อตั้งขึ้นเพื่อสร้างมาตรฐานทั่วทั้งอุตสาหกรรมเพื่อให้แน่ใจว่าข้อความของความสามารถในการทำงานร่วมกันยังคงเป็นสิ่งสำคัญหลักในการพัฒนาเว็บ เป้าหมายของ WWW Consortium ในการ“ ตระหนักถึงศักยภาพสูงสุดของเว็บ” [แหล่งที่มา] ขึ้นอยู่กับความเชื่อที่ว่า เท่านั้น ผ่านความสามารถในการทำงานร่วมกันซึ่งทำได้โดยการสร้างมาตรฐานระหว่างโปรโตคอล – อาจเป็นไปตามศักยภาพสูงสุดดังกล่าว.

 

ทิมเบอร์เนอร์สร้างเซลล์อ้างการวิจัยที่เป็นเอกฉันท์

 


การเปลี่ยนแปลงสิ่งจูงใจด้านข้อมูล

การดูการจัดการเนื้อหาบนเว็บเป็นตัวอย่างที่น่าสนใจของอุดมการณ์เริ่มต้นของความสามารถในการทำงานร่วมกันและการกำหนดมาตรฐาน ปัญหาของการจัดการเนื้อหาโดยเฉพาะอย่างยิ่งเรื่องของการดึงดูดคุณค่าการสร้างความเป็นเจ้าของและการปกป้องลิขสิทธิ์มักถูกเรียกร้องให้เน้นถึงข้อบกพร่องที่อาจเกิดขึ้นของอินเทอร์เน็ตและเพื่อกระตุ้นให้นักพัฒนาหน่วยงานกำกับดูแลและนักเทคโนโลยีเริ่มพูดคุยเรื่องเหล่านี้ตั้งแต่เนิ่นๆ.

“ ข้อมูลที่ต้องการเป็นอิสระ” มักจะถูกย้อนกลับไปที่ Stewart Brand ในการประชุมปี 1984 ข้อมูลความคิดควรแพร่กระจายอย่างเปิดเผยและเป็นธรรมชาติในรูปแบบดิจิทัลเช่นเดียวกับที่มีระหว่างสมาชิกของเผ่าพันธุ์ตลอดประวัติศาสตร์ของมนุษย์ เว็บอนุญาตให้มีการเผยแพร่ข้อมูลที่ใกล้จะไม่มีที่สิ้นสุดซึ่งเป็นสถานที่ที่ดีที่สุดในการแสดงความชื่นชอบในเสรีภาพเกินขีด จำกัด ของวิธีการสื่อสารแบบอนาล็อกจนถึงปัจจุบัน เว็บนำเสนอขั้นตอนขยายสำหรับข้อมูลที่จะออกอากาศ แต่ทำเช่นนั้นด้วยค่าใช้จ่ายของคำจำกัดความที่ชัดเจนเกี่ยวกับความเป็นเจ้าของความขาดแคลนและมูลค่าที่ตลาดทั่วโลกคุ้นเคย เว็บอนุญาตให้ข้อมูลเป็นอิสระ แต่ยังเปิดโอกาสให้ใช้ประโยชน์ในเชิงเศรษฐกิจได้อีกด้วย (สิ่งนี้เคยเกิดขึ้นจริงในช่วงอื่น ๆ ของความก้าวหน้าทางเทคโนโลยีสารสนเทศเช่นการปฏิวัติการพิมพ์ในศตวรรษที่สิบห้าและวิทยุในช่วงต้นทศวรรษที่ยี่สิบ – ได้รับในระดับที่เล็กกว่าแบบทวีคูณ) ผลลัพธ์นี้เกี่ยวข้องกับส่วนที่สองและมีการอ้างอิงน้อยกว่าของคำพูดของแบรนด์:“ ข้อมูลอยากแพง” [Media Lab, หน้า 202-203]. เมื่อมองย้อนกลับไปการโต้แย้งของแบรนด์อาจถูกแทนที่ได้อย่างถูกต้องมากขึ้นเนื่องจาก “ข้อมูลต้องการจะเป็น มูลค่า สำหรับสิ่งที่มีค่า” ซึ่งหมายความว่าบางครั้งอาจจะไม่เสมอไป แต่ก็มีราคาแพง รูปแบบและความสามารถใหม่ของการหมุนเวียนข้อมูลที่ขับเคลื่อนโดยเว็บทำให้การประเมินมูลค่าข้อมูลดิจิทัลที่เหมาะสมเป็นไปไม่ได้ ตัวอย่างเช่นเราไม่สามารถติดตามที่มาของเนื้อหาได้อย่างแม่นยำเพื่อให้ค่าตอบแทนที่เหมาะสมแก่ผู้สร้างต้นฉบับ การขาดโปรโตคอลการเป็นเจ้าของมาตรฐานสำหรับเนื้อหานี้ทำให้บุคคลที่สามสามารถเข้ามาและจัดทำมาตรฐานนั้นได้หรือเป็นภาพลวงตาของการกำหนดมาตรฐานที่ถูกต้องมากขึ้นโดยการอำนวยความสะดวก จบสิ้น ผลกระทบที่ถูกระบุว่ามีความสำคัญต่อการใช้อินเทอร์เน็ตแบบปรับขนาด และพวกเขาทำสิ่งนี้กับข้อมูลทุกประเภทไม่ใช่แค่เนื้อหาที่เป็นภาพและเป็นลายลักษณ์อักษร ภาพลวงตาของความสามารถในการทำงานร่วมกันของโปรโตคอลส่วนหลังได้รับการเสริมด้วยการฆ่าเชื้อที่เพิ่มขึ้นจากสิ่งที่ผู้ใช้ประสบในส่วนหน้า Kate Wagner เขียนเกี่ยวกับการหายตัวไปของความแปลกประหลาดในการออกแบบอินเทอร์เน็ตในยุคแรก ๆ ในช่วงทศวรรษที่ 90 และต้นปี 2000 กล่าวถึง“ …อ้าปากค้างของความงามของเว็บที่เป็นพื้นถิ่นโดยกำเนิดซึ่งกำหนดโดยการขาดข้อ จำกัด ว่าหน้าจะมีลักษณะอย่างไรหรือควรมีลักษณะอย่างไร ” [แหล่งที่มา]. เว็บสำหรับผู้บริโภคกลายเป็นมาตรฐานมากขึ้นเรื่อย ๆ แต่ส่วนหลังยังคงไม่มั่นคงและส่งผลให้ยังคงสุกงอมกับการแสวงหาประโยชน์และผลกำไรจากข้อมูล.

เมื่อบุคคลที่สามก้าวเข้ามาและมีความสำคัญต่อการส่งข้อมูลมาตรฐานพวกเขาเริ่มกำหนด “คุณค่า” ของข้อมูล พลวัตทางเศรษฐกิจในช่วงต้นนี้กระตุ้นให้เกิดการขาดแคลนข้อมูลเทียม การปฏิเสธข้อมูลโดยธรรมชาติมีความโน้มเอียงที่จะสร้างแท็กราคาที่สูงเกินจริงซึ่งเชื่อมโยงกับข้อมูลที่แตกต่างกันโดยไม่เสียค่าใช้จ่ายแทนที่จะปล่อยให้ข้อมูลมีมูลค่าตามมูลค่า บริษัท เหล่านี้ทำได้ดีโดยการ จำกัด การไหลของข้อมูลที่พวกเขาควบคุม พวกเขาพยายามที่จะปฏิบัติต่อข้อมูลเช่นเดียวกับสินค้าโภคภัณฑ์อื่น ๆ ส่วนใหญ่บนโลกโดยที่ทฤษฎีอุปสงค์ – อุปทานที่เรียบง่ายกำหนดว่าความขาดแคลนมีค่าเท่ากับมูลค่า ดังที่ John Barlow กล่าวไว้ใน“ The Economy of Ideas” ในปี 1994 ของเขา“ เทคโนโลยีดิจิทัลกำลังแยกข้อมูลออกจากระนาบทางกายภาพ” [แหล่งที่มา]. ด้วยการปฏิบัติต่อข้อมูลเป็นผลิตภัณฑ์ทางกายภาพและควบคุมหรือจำกัดความสามารถในการไหลเวียนอย่างอิสระบุคคลที่สามจึงระงับคุณภาพของข้อมูลที่เป็นเอกลักษณ์ซึ่งทำให้ข้อมูลนั้นกลายเป็น มีค่ามากขึ้น ที่ ธรรมดามากขึ้น มันคือ. “ ถ้าเราถือว่าคุณค่านั้นขึ้นอยู่กับความขาดแคลนเช่นเดียวกับที่เกี่ยวกับวัตถุทางกายภาพ” บาร์โลว์ระบุโลกจะเสี่ยงต่อการพัฒนาเทคโนโลยีโปรโตคอลกฎหมายและเศรษฐกิจที่ขัดกับธรรมชาติของข้อมูลที่แท้จริงของมนุษย์ [แหล่งที่มา].

“ ความสำคัญของ [อินเทอร์เน็ต] ไม่ได้อยู่ที่เทคโนโลยีเครือข่าย แต่อยู่ที่การเปลี่ยนแปลงพื้นฐานในการปฏิบัติของมนุษย์ที่ส่งผลให้” ปีเตอร์เดนนิ่งเขียนในภาพสะท้อนของปี 1989 เกี่ยวกับยี่สิบปีแรกของอินเทอร์เน็ต [แหล่งที่มา]. ในตอนท้ายของวัน Web2 ได้แพร่หลายเนื่องจากเอฟเฟกต์ end-to-end ถูกนำมาใช้อย่างประสบความสำเร็จทำให้เกิดการยอมรับจำนวนมากและให้ผู้ใช้ในชีวิตประจำวัน ภาพลวงตา ของอินเทอร์เน็ตเดียวทั่วโลก แม้ว่าความสามารถในการทำงานร่วมกันจะเป็นความปรารถนาหลักของ Berners-Lee และสถาปนิกอินเทอร์เน็ตรุ่นแรก ๆ แต่สิ่งที่สำคัญสำหรับผู้บริโภคปลายทาง (และสำหรับ บริษัท ที่แสวงหาผลกำไรจากพวกเขา) ก็คืออินเทอร์เน็ตปรับขนาดให้เป็นประโยชน์ในชีวิตประจำวันโดยเร็วที่สุด ข้อมูล ปรากฏขึ้น เพื่อเดินทางอย่างเป็นธรรมชาติและมีมนุษยธรรม เนื้อหา ปรากฏขึ้น ที่มาและตรวจสอบ; และข้อมูล ปรากฏขึ้น ให้ใช้งานได้อย่างกว้างขวางและน่าเชื่อถือ อย่างไรก็ตามเบื้องหลัง บริษัท บุคคลที่สามเดียวกัน (หรือลูกหลานของพวกเขา) ตั้งแต่ยุคแรก ๆ ยังคงเป็นผู้เฝ้าระวังการส่งข้อมูลทางอินเทอร์เน็ตโดยมีผลกระทบที่น่าสังเกต.

นักทฤษฎีอินเทอร์เน็ตในยุคแรกไม่ได้ตั้งใจให้เทคโนโลยีนี้เป็นอิสระจาก บริษัท เอกชนตลอดไป ในความเป็นจริงการตระหนักถึงศักยภาพของอินเทอร์เน็ตนั้นอาศัยสมมติฐานที่ว่าความปรารถนาในการใช้งานในวงกว้างจะผลักดันให้ บริษัท เอกชนก้าวเข้ามาและให้ทุนสนับสนุนการพัฒนาทั่วโลกอย่างรวดเร็วและรวดเร็วยิ่งขึ้น อย่างไรก็ตามการมาถึงของ บริษัท เอกชนทำให้เกิดการตกตะกอนของระบบนิเวศในที่สุด.

การเกิดขึ้นของ Balkanization

วิสัยทัศน์ดั้งเดิมของสถาปนิกอินเทอร์เน็ตคือ“ เครือข่ายเครือข่าย” แบบเปิดกระจายและกระจายอำนาจ [แหล่งที่มา]. ได้รับทุนสนับสนุนจากการวิจัยสาธารณะหลายพันล้านดอลลาร์สหรัฐและในตอนแรกคิดว่าเป็นโครงการทางวิชาการในช่วงยี่สิบปีแรกของการพัฒนาอินเทอร์เน็ตถูกเปิดเผยด้วยความคลุมเครือ ผู้ให้ทุนเริ่มต้นโดยเฉพาะอย่างยิ่งคือ ARPA (หน่วยงานโครงการวิจัยขั้นสูงซึ่งต่อมากลายเป็น DARPA) และมูลนิธิวิทยาศาสตร์แห่งชาติ (NSF) ไม่จำเป็นต้องหวังผลกำไรจากโครงการดังนั้นอินเทอร์เน็ตในยุคแรกจึงปรับขนาดได้ช้าและจงใจ [แหล่งที่มา].

อินสแตนซ์แรกของระบบเครือข่ายสามารถใช้ได้จริง: คอมพิวเตอร์เมนเฟรมที่มหาวิทยาลัยวิจัยมีราคาแพงมากดังนั้นการแบ่งปันทรัพยากรระหว่างกันจะส่งผลให้เกิดการวิจัยที่ดีขึ้น รัฐบาลควบคุมเครือข่ายเหล่านั้นซึ่งหมายความว่าผู้เข้าร่วมทุกคนได้รับแรงจูงใจในการแบ่งปันรหัสของตนเพื่อให้ได้เงินทุนอย่างต่อเนื่องและรักษาจรรยาบรรณโอเพนซอร์ส โปรโตคอลเกิดขึ้นในกลางทศวรรษ 1970 และมาตรฐานการสื่อสารดิจิทัลที่ใช้งานร่วมกันได้ก็เกิดขึ้นหลังจากนั้นไม่นานด้วยเหตุผลในทางปฏิบัติ: เครื่องจักรต้องสามารถพูดคุยกันได้ ในปี พ.ศ. 2528 เครือข่าย NSFNET ได้เชื่อมต่อเมนเฟรมของมหาวิทยาลัยที่สำคัญทั้งหมดซึ่งเป็นกระดูกสันหลังแรกของอินเทอร์เน็ตอย่างที่เรารู้จัก ในช่วงปลายทศวรรษ 1980 ผู้เข้าร่วมจำนวนมากขึ้นมาที่เครือข่ายกระดูกสันหลังนี้มากพอที่การรับส่งข้อมูลเริ่มแซงหน้าความสามารถของเครือข่ายในการโฮสต์เครือข่าย.

ความแออัดของเครือข่ายเป็นปัญหาหลักเนื่องจากกิจกรรมและความกระตือรือร้นในการใช้เทคโนโลยีเพิ่มขึ้น ในปี 1991 Vinton Cerf ผู้ร่วมออกแบบโปรโตคอล TCP / IP และสถาปนิกอินเทอร์เน็ตรายใหญ่อีกคนยอมรับถึงความท้าทายที่เพิ่มขึ้นของโครงสร้างพื้นฐานในการปรับขนาด:“ ในการหมักเทคโนโลยีโทรคมนาคมสมัยใหม่ที่เดือดพล่านความท้าทายที่สำคัญคือการพิจารณาว่าสถาปัตยกรรมอินเทอร์เน็ตพัฒนาขึ้นอย่างไร ในช่วง 15 ปีที่ผ่านมาจะต้องเปลี่ยนแปลงเพื่อปรับให้เข้ากับเทคโนโลยีความเร็วกิกะบิตที่เกิดขึ้นใหม่ในปี 1990” [แหล่งที่มา]. NSFNET บังคับใช้การห้ามกิจกรรมเชิงพาณิชย์ แต่ก็ยังไม่เพียงพอที่จะ จำกัด ปริมาณการใช้งาน คำสั่งห้ามดังกล่าวทำให้เกิดการพัฒนาเครือข่ายเอกชนแบบคู่ขนานเพื่อเป็นเจ้าภาพในการดำเนินกิจกรรมทางการค้า.

เพื่อตอบสนองต่อแนวโน้มเครือข่ายแบบคู่ขนานนี้และความตึงเครียดใน NSFNET สตีเฟนวูล์ฟประธาน NSF จึงเสนอให้แปรรูปโครงสร้างพื้นฐาน วิธีนี้จะบรรเทาความแออัดโดยการนำการลงทุนภาคเอกชนเข้ามาเพิ่มขีดความสามารถของเครือข่ายอนุญาตให้ NSFNET รวมกับเครือข่ายส่วนตัวเป็นระบบที่ทำงานร่วมกันเพียงระบบเดียวและปล่อยโครงการจากการควบคุมของรัฐบาลเพื่อให้อินเทอร์เน็ตกลายเป็นสื่อขนาดใหญ่ ในปี 1995 NSFNET ถูกกำจัดไปทั้งหมดและระบบนิเวศของเครือข่ายส่วนตัวก็เข้ามาแทนที่ หลังจากนั้น บริษัท 5 แห่ง (UUNET, ANS, SprintLink, BBN และ MCI) ได้ก่อตั้งชั้นโครงสร้างพื้นฐานใหม่ของอินเทอร์เน็ต พวกเขาไม่มีคู่แข่งที่แท้จริงไม่มีการกำกับดูแลด้านกฎระเบียบไม่มีนโยบายหรือการกำกับดูแลที่ชี้นำปฏิสัมพันธ์ของพวกเขาและไม่มีข้อกำหนดสำหรับประสิทธิภาพขั้นต่ำที่ออกโดยหน่วยงานของรัฐใด ๆ สภาพแวดล้อมการแข่งขันที่เปิดกว้างโดยสิ้นเชิงนี้ในขณะที่ไม่เคยมีมาก่อนมีความขัดแย้งเล็กน้อยในหมู่ผู้นำทางความคิดของอินเทอร์เน็ตยุคแรก ๆ เพราะพวกเขาตั้งใจให้เครือข่ายส่งมอบให้กับผู้ให้บริการโครงสร้างพื้นฐานเอกชนเมื่อมีความสนใจหลักเพียงพอที่จะสนับสนุนพวกเขา กล่าวอีกนัยหนึ่งพวกเขา คาดว่า แรงจูงใจในการเปลี่ยนแปลงเมื่อประชาชนยอมรับเทคโนโลยี โปรโตคอลและเลเยอร์ลิงก์ของเว็บได้รับการพัฒนาในความคลุมเครือ เฉพาะที่ชั้นเครือข่ายหรือโครงสร้างพื้นฐานเท่านั้นที่สร้างตลาดได้.

ผู้ให้บริการรายใหญ่รายใหม่ 5 รายเชื่อมต่อและรวมเครือข่ายท้องถิ่นและเครือข่ายขนาดเล็กทั่วสหรัฐอเมริกา โดยพื้นฐานแล้ว บริษัท เหล่านี้เริ่มเป็นคนกลางและกลายเป็นผู้ให้บริการโดยพฤตินัยโดยอาศัยข้อเท็จจริงที่ว่าพวกเขาดูแลข้อมูลทั้งหมดในระบบ ณ จุดหนึ่งของการส่งผ่าน องค์กรนี้ดูเหมือนจะรวมศูนย์โดยไม่ได้ตั้งใจเมื่อเทียบกับการจัดลำดับความสำคัญของสถาปัตยกรรมระบบแบบกระจายและยืดหยุ่นจนถึงจุดนั้น แต่สถาปนิกอินเทอร์เน็ตตระหนักถึงเรื่องนี้ เนื่องจากมีผู้ให้บริการมากกว่าหนึ่งรายอย่างไรก็ตามผู้สนับสนุนการแปรรูปจึงรู้สึกว่าจะมีการแข่งขันเพียงพอที่จะป้องกันไม่ให้เกิดการหยุดชะงักของชั้นบริการโครงสร้างพื้นฐาน ในช่วงหลายปีหลังการรื้อ NSFNET ไม่ได้เป็นเช่นนั้นในทางปฏิบัติ การแปรรูปโครงสร้างพื้นฐานในชั้นโครงสร้างพื้นฐานส่งผลให้ผู้ให้บริการขายน้อยรายได้ควบคุมการไหลของข้อมูลของอินเทอร์เน็ตทั้งหมดเป็นความลับโดยอาศัยการควบคุมการเคลื่อนไหวและปริมาณงานของข้อมูล พวกเขาสามารถให้ทางลัดแก่กันและกันเพื่อเอาชนะความแออัดของเครือข่ายโดยรวมและเสนอการปฏิบัติพิเศษแก่เว็บไซต์ที่จ่ายเงินเพื่อการจัดส่งเนื้อหาที่เร็วขึ้น ข้อตกลงระหว่างผู้ให้บริการเหล่านี้ไม่เป็นที่ทราบโดยสิ้นเชิงเนื่องจากพวกเขาไม่จำเป็นต้องเปิดเผยเงื่อนไขของพวกเขาดังนั้นเครือข่ายผู้ให้บริการที่มีขนาดเล็กจึงไม่สามารถแข่งขันในตลาดกลางได้.

ดังนั้นความพยายามในช่วงต้นทศวรรษ 1990 ที่จะหลีกเลี่ยงการปิดกั้นอินเทอร์เน็ตในที่สุดส่งผลให้เกิดการรวมศูนย์ที่รุนแรงโดยไม่ได้ตั้งใจซึ่งกลุ่มผู้ให้บริการโครงสร้างพื้นฐาน 5 รายสามารถควบคุมเลเยอร์โปรโตคอลทั้งหมดได้ ในแง่หนึ่งนี่เป็นบทเรียนเกี่ยวกับความสำคัญของระเบียบการกำกับดูแลของเจ้าของภาษาและกฎระเบียบที่สมเหตุสมผลในการพัฒนาตลาดที่มีสุขภาพดีสำหรับเทคโนโลยีใหม่ ๆ กฎระเบียบที่ดีซึ่งส่งผลให้เกิดการแข่งขันที่เป็นธรรมและเปิดกว้างมากขึ้นในที่สุดส่งผลให้ตลาดโดยรวมมีความสมบูรณ์มากขึ้น การรักษาผลประโยชน์สาธารณะบางส่วนยังนำเสนอวงตอบกลับของการตรวจสอบเกี่ยวกับการพัฒนาเทคโนโลยีใหม่เมื่อปรับขนาด ข้อบกพร่องประการหนึ่งของเลเยอร์โครงสร้างพื้นฐานส่วนตัวเมื่อเป็นรูปเป็นร่างก็คือการให้ความสนใจไม่เพียงพอต่อการรักษาความปลอดภัยที่ได้รับจาก NSFNET ซึ่งไม่ได้เป็นข้อกังวลที่สำคัญมากนัก ไม่มีกลไกความปลอดภัยหรือ R&ในประเด็นด้านความปลอดภัยโดยทั่วไปมีช่องโหว่ที่ยังคงมีอยู่ในปัจจุบัน การขาดการกำกับดูแลโดยเจตนาเกือบทั้งหมดส่งผลให้ขาดสิ่งที่เรียกว่า “ความเป็นกลางสุทธิ” อย่างมากด้วยเหตุนี้การจัดลำดับความสำคัญของความเร็วเครือข่ายที่ไม่เป็นธรรมให้กับผู้เสนอราคาสูงสุดและการเข้าถึงเครือข่ายโดยรวมที่ไม่เท่าเทียมกันอย่างมาก มาตรการที่ใช้เพื่อป้องกันการ balkanization แทนที่จะส่งผลให้เกิดเลเยอร์โครงสร้างพื้นฐานที่มีบัลคาไนซ์ทั้งหมด แต่กลับไม่ได้.

บทเรียนของการรวมศูนย์ผู้ให้บริการในช่วงต้นทศวรรษ 1990 นี้ค่อนข้างเกี่ยวข้องกับขั้นตอนของการพัฒนาระบบนิเวศบล็อกเชนในปัจจุบัน การกำหนดมาตรฐานสำหรับความสามารถในการทำงานร่วมกันมีแนวโน้มที่จะเกิดขึ้นในระดับที่จำเป็นสำหรับฟังก์ชันการทำงาน นี่เป็นความจริงของชั้นโปรโตคอลของอินเทอร์เน็ตและมีแนวโน้มที่จะเกิดขึ้นจริงใน Web3 เมื่อเครือข่ายมีแรงกดดันเพียงพอดังนั้นแรงจูงใจทางเศรษฐกิจจึงเกิดขึ้น แต่ในขณะที่ชั้นโปรโตคอลของเว็บได้รับการสนับสนุนจากสาธารณะดังนั้นจึงเป็นอิสระจากการคาดหวังผลกำไรมานานกว่ายี่สิบปีคลื่นลูกแรกของ blockchains นั้นมีลักษณะทางการเงินเป็นพื้นฐานและมีสิ่งจูงใจทางการเงินตั้งแต่เริ่มก่อตั้งและจากส่วนกลางไปจนถึง ชั้นโปรโตคอล ดังนั้นในขณะที่มีรูปแบบที่ใช้ร่วมกันในการพัฒนา Web2 และ Web3 แต่ความเสี่ยงของการทำให้เกิด balkanization เกิดขึ้นในจุดที่แตกต่างกันมากในไทม์ไลน์ของพวกเขา.  

 

อ้าง balkanized

 

การจัดลำดับความสำคัญของความสามารถในการทำงานร่วมกัน

แม้ว่าข้อเท็จจริงที่ว่าการคาดการณ์การมีอยู่ของมันจะมีมานานหลายสิบปีและทฤษฎีการเข้ารหัสก็ยาวนานกว่านั้นมานานหลายทศวรรษ แต่เทคโนโลยีบล็อกเชนในทางปฏิบัติ – นับ แต่เทคโนโลยีบล็อกเชนที่ใช้งานได้แบบตั้งโปรแกรมได้ – ยังคงตั้งไข่อยู่ ในช่วงเริ่มต้นนวัตกรรมและการแข่งขันที่แตกต่างเป็นสิ่งสำคัญสำหรับการเติบโตของระบบนิเวศ อย่างไรก็ตามอุตสาหกรรมบล็อกเชนในยุคแรก ๆ ในปัจจุบันอยู่ภายใต้แรงกดดันเช่นเดียวกับอุตสาหกรรมอินเทอร์เน็ตยุคแรกของทศวรรษที่ 1980 และ 90 โอกาสของบล็อกเชนคือการเปลี่ยนแปลงของโลกดังนั้นความเสี่ยงจึงเป็นเช่นนั้น.

โอกาสของเทคโนโลยีบล็อกเชนเนื่องจากซีรีส์นี้จะโต้แย้งโดยขึ้นอยู่กับความสามารถในการทำงานร่วมกันระหว่างโครงการบล็อกเชนที่สำคัญทั้งหมดเช่น พื้นฐาน เพื่อพัฒนาโปรโตคอลเหล่านั้น เฉพาะการตรวจสอบให้แน่ใจว่าบล็อกเชนทั้งหมดไม่ว่าจะไม่เกี่ยวข้องกันทั้งหมดหรือแข่งขันกันอย่างดุเดือดการฝังความเข้ากันได้ลงในฟังก์ชันการทำงานพื้นฐานของพวกเขาจะทำให้ขีดความสามารถของเทคโนโลยีขยายไปสู่การใช้งานทั่วโลกและผลที่ตามมา.

ด้วยแรงสื่อที่ชัดเจนซึ่งการเข้ารหัสลับยอดขายโทเค็นและตลาดโทเค็นได้ตกตะกอนในช่วงสองปีที่ผ่านมา บริษัท บล็อกเชนอยู่ภายใต้แรงกดดันอย่างมากในการพิสูจน์การใช้เทคโนโลยีความสามารถในการทำกำไรและการค้า ด้วยวิธีนี้แรงจูงใจที่ผลักดันให้อินเทอร์เน็ตลดความสำคัญของความสามารถในการทำงานร่วมกันและมุ่งเน้นไปที่การใช้งานเทคโนโลยีในชีวิตประจำวันจึงไม่แตกต่างจากปัจจุบัน หากมีสิ่งใดความสามารถของเราในปัจจุบันในการเชื่อมต่อและรับการอัปเดตแบบเรียลไทม์ทุกที่ในโลกทำให้มั่นใจได้ว่าระบบนิเวศของบล็อกเชนอยู่ภายใต้ มากกว่า ความกดดันที่จะแสดงให้เห็นถึงความสามารถทางการค้ามากกว่าอินเทอร์เน็ตยุคแรกในขั้นตอนเดียวกันในการพัฒนา ในขณะที่ บริษัท ต่างๆแข่งขันกันเพื่อพิสูจน์ตัวเองว่า“ ดีกว่า” หรือ“ พร้อมสำหรับตลาด” มากกว่าโปรโตคอลอื่น ๆ ที่มีอยู่พวกเขาจึงละทิ้งความสามารถในการทำงานร่วมกันเพื่อมุ่งเน้นไปที่การรีไซเคิลคำพูดของ Berners-Lee นั่นคือ“ เทคนิคกราฟิกที่สวยงามและสิ่งอำนวยความสะดวกพิเศษที่ซับซ้อน” ที่ดึงดูด ให้กับนักลงทุนและผู้บริโภคที่มีสายตาสั้นมากขึ้น.

การแข่งขันที่จะให้คำมั่นสัญญาว่าจะใช้งานได้ทันทีนั้นมีประสิทธิภาพในเชิงเศรษฐกิจ แต่ความต่อเนื่องอาจส่งผลต่อการพัฒนาทั้งหมดของอุตสาหกรรมบล็อกเชน หาก บริษัท ต่างๆยังคงเพิกเฉยต่อความสามารถในการทำงานร่วมกันและแทนที่จะสร้าง blockchain ที่เป็นกรรมสิทธิ์ของตนเองและพยายามที่จะนำมันไปเทียบกับคู่แข่งทางการตลาดที่คาดว่าจะเกิดขึ้นระบบนิเวศในช่วงไม่กี่ปีที่ผ่านมาอาจดูคล้ายกับยุคแรก ๆ ของอินเทอร์เน็ตที่ไม่สามารถทำงานร่วมกันได้ เราจะเหลือเพียงกลุ่มบล็อกเชนที่กระจัดกระจายซึ่งแต่ละกลุ่มได้รับการสนับสนุนจากเครือข่ายโหนดที่อ่อนแอและมีความอ่อนไหวต่อการโจมตีการจัดการและการรวมศูนย์.

การจินตนาการถึงอนาคตที่ไม่สามารถทำงานร่วมกันได้สำหรับเทคโนโลยีบล็อกเชนไม่ใช่เรื่องยากเกินไป เนื้อหาและจินตภาพทั้งหมดในการวาดภาพมีอยู่ในหลักคำสอนทางอินเทอร์เน็ตยุคแรก ๆ และได้มีการกล่าวถึงในส่วนแรกของงานชิ้นนี้แล้ว เช่นเดียวกับอินเทอร์เน็ตในปัจจุบันคุณภาพของข้อมูลที่สำคัญที่สุดใน Web3 คือเอฟเฟกต์“ end to end” ผู้บริโภคที่โต้ตอบกับ Web3 จะต้องสัมผัสกับปฏิสัมพันธ์ที่ราบรื่นไม่ว่าพวกเขาจะใช้เบราว์เซอร์กระเป๋าเงินหรือเว็บไซต์ใดก็ตามเพื่อให้เทคโนโลยีปรับขนาดไปสู่การยอมรับจำนวนมาก เพื่อให้เป้าหมายนี้บรรลุจุดจบได้ข้อมูลจะต้องได้รับอนุญาตให้ไหลเวียนในลักษณะที่เป็นธรรมชาติและเห็นอกเห็นใจผู้อื่น จะต้องได้รับอนุญาตให้เป็นอิสระ อย่างไรก็ตามบล็อกเชนในปัจจุบันมี ไม่ ความรู้เกี่ยวกับข้อมูลที่อาจมีอยู่ในบล็อคเชนอื่น ข้อมูลที่อาศัยอยู่บนเครือข่าย Bitcoin ไม่มีความรู้เกี่ยวกับข้อมูลที่อาศัยอยู่บนเครือข่าย Ethereum ดังนั้นข้อมูลจึงถูกปฏิเสธความปรารถนาตามธรรมชาติและความสามารถในการไหลอย่างอิสระ.

ผลที่ตามมาของข้อมูลที่ซ่อนอยู่ในบล็อกเชนที่สร้างขึ้นนั้นมาจากหนังสือประวัติศาสตร์ของอินเทอร์เน็ตโดยตรง อินเทอร์เน็ตรวมศูนย์ที่ชั้นโครงสร้างพื้นฐานเนื่องจากการปรับขนาดแรงกดดันเพื่อตอบสนองความกระตือรือร้นของสาธารณชนและการยอมรับจำนวนมาก หากระบบนิเวศของ Web3 ไปถึงจุดนั้นก่อนที่ความสามารถในการทำงานร่วมกันของโปรโตคอลจะแพร่หลายเพียงพอสิ่งเดียวกันนี้จะเกิดขึ้นอีกครั้ง หากปราศจากความสามารถในการทำงานร่วมกันของบล็อกเชนแบบเนทีฟบุคคลที่สามจะเข้ามาจัดการการถ่ายโอนข้อมูลจากบล็อกเชนหนึ่งไปยังอีกบล็อกหนึ่งโดยดึงคุณค่าของตัวเองออกมาในกระบวนการและสร้างแรงเสียดทานที่เทคโนโลยีมีขึ้น พวกเขาจะสามารถเข้าถึงและควบคุมข้อมูลนั้นและจะมีความสามารถในการสร้างความขาดแคลนเทียมและมูลค่าที่สูงเกินจริง วิสัยทัศน์ของอนาคตอินเทอร์เน็ตที่ขับเคลื่อนด้วย blockchain ซึ่งมักจะเกิดขึ้นบ่อยครั้งก็คืออะไรหากปราศจากความสามารถในการทำงานร่วมกัน หากไม่มีเราจะพบว่าตัวเองมีเครือข่ายทั่วโลกในอนาคตที่ใกล้เคียงกับภูมิทัศน์ Web2 ที่โดดเด่นในปัจจุบัน ผู้บริโภคทุกวันจะยังคงเพลิดเพลินกับการโต้ตอบกับ Web3 ที่ราบรื่นและสม่ำเสมอ แต่ข้อมูลของพวกเขาจะไม่ปลอดภัยข้อมูลประจำตัวของพวกเขาจะไม่สมบูรณ์และเงินของพวกเขาจะไม่ตกเป็นของพวกเขา.

มองไปข้างหน้า

ทั้งหมดนี้ไม่ได้หมายความว่าอุตสาหกรรมได้ลืมหรือละทิ้งความสำคัญของการทำงานร่วมกันโดยสิ้นเชิง การพิสูจน์แนวคิดเช่น BTC รีเลย์, สมาคมเช่น Enterprise Ethereum Alliance, และโครงการต่างๆเช่น Wanchain แสดงให้เห็นว่าบางคนยังคงรับทราบถึงคุณค่าที่สำคัญของความสามารถในการทำงานร่วมกัน มีโอกาสดีที่แรงกดดันจากตลาดจะกระตุ้นระบบนิเวศของบล็อกเชนให้มีการทำงานร่วมกันไม่ว่าสิ่งต่างๆจะพัฒนาไปอย่างไรในระยะสั้น อย่างไรก็ตามความสามารถในการตอบสนองและการทำงานร่วมกันเชิงรุกยังคงสามารถสะกดความแตกต่างระหว่างจุดที่จับค่าและวิธีการใช้ประโยชน์จากข้อมูล ความสามารถในการทำงานร่วมกันของปฏิกิริยาเช่น เพียง แต่ตัดสินใจว่าความสามารถในการทำงานร่วมกันควรเป็นปัจจัยสำคัญของบล็อกเชนในช่วงหลายปีที่ผ่านมาเมื่อตลาดต้องการ – เปิดโอกาสให้บุคคลที่สามเข้ามาและอำนวยความสะดวกในการทำงานร่วมกันนั้น พวกเขาได้รับประโยชน์จากบริการของตนและเข้าถึงข้อมูลของผู้ใช้ได้อย่างไม่สมมาตร ความสามารถในการทำงานร่วมกันเชิงรุก – เช่น การตรวจสอบความสามารถในการทำงานร่วมกันจะถูกเข้ารหัสลงในโปรโตคอลในช่วงเริ่มต้นของระบบนิเวศนี้ในทางกลับกันทำให้มั่นใจได้ว่าข้อมูลจะสามารถส่งผ่านระหว่างบล็อกเชนได้อย่างปลอดภัยและมีประสิทธิภาพโดยไม่ต้องผ่านการควบคุมไปยังบุคคลที่สามที่เป็นสื่อกลาง.

ไม่ต้องสงสัยเลยว่ามีความสมดุลที่จำเป็นและเหมาะสมระหว่างการค้าและการทำงานร่วมกันของโอเพนซอร์สอย่างไม่ต้องสงสัย Commercialization ส่งเสริมการแข่งขันและนวัตกรรมกระตุ้นให้นักพัฒนาและผู้ประกอบการสร้างระบบที่ทำงานได้ดีที่สุดสำหรับลูกค้าของตน อย่างไรก็ตามความสมดุลได้พิสูจน์แล้วว่ามีความล่อแหลมในอดีต ในขณะที่แรงกดดันที่เพิ่มขึ้นสำหรับ blockchain ในการทำตามคำมั่นสัญญาเราจะพบว่าสถานที่ในเชิงพาณิชย์มีความเครียดมากขึ้นเรื่อย ๆ เกี่ยวกับ blockchain เพื่อให้พร้อมกับตลาดไม่ว่าจะมีอุดมการณ์ใดที่ต้องเสียสละในระยะสั้น.

การวิจัย ConsenSys

 

 

เกี่ยวกับผู้เขียน

Everett Muzzy

Everett เป็นนักเขียนและงานวิจัยที่ ConsenSys งานเขียนของเขาได้ปรากฏใน Hacker Noon, CryptoBriefing, Moguldom, และ เหรียญ.

Mally Anderson

Mally เป็นนักเขียนและนักวิจัยที่ ConsenSys งานเขียนของเธอปรากฏใน MIT’s วารสารการออกแบบและวิทยาศาสตร์, MIT’s นวัตกรรม, ควอตซ์, และ อัศวิน.

รับข้อมูลล่าสุดจาก ConsenSys Research

ลงทะเบียนเพื่อรับการแจ้งเตือนเกี่ยวกับสิ่งพิมพ์วิจัย ConsenSys ในอนาคต

สมัคร→

Mike Owergreen Administrator
Sorry! The Author has not filled his profile.
follow me
Like this post? Please share to your friends:
Adblock
detector
map