โดย Rafiเว็บตรง Letzter เผยแพร่เมื่อ 8 พฤษภาคม 2018ส่วนหนึ่งของ “The Alchymist, ในการค้นหาศิลาอาถรรพ์, ค้นพบฟอสฟอรัส, และอธิษฐานขอข้อสรุปที่ประสบความสําเร็จของการดําเนินงานของเขา, เช่นเดียวกับประเพณีของนักโหราศาสตร์ Chymical โบราณ,” โดยโจเซฟไรท์แห่งดาร์บี้, ตอนนี้อยู่ในพิพิธภัณฑ์ดาร์บี้และหอศิลป์, ดาร์บี้, สหราชอาณาจักร. (เครดิตภาพ: สาธารณสมบัติ)
นักวิจัยที่มีชื่อเสียงของแมชชีนเลิร์นนิงและปัญญาประดิษฐ์กําลังโต้เถียงว่าสาขาของเขาได้หลงทางออกจากขอบเขตของวิทยาศาสตร์และวิศวกรรมและกลายเป็น “การเล่นแร่แปรธาตุ” และเขากําลังเสนอเส้นทางกลับ
Ali Rahimi ซึ่งทํางานบน AI ให้กับ Google กล่าวว่าเขาคิดว่าสาขาของเขามีความก้าวหน้าอย่างน่าทึ่ง
แต่แนะนําว่ามีบางสิ่งที่เน่าเสียในวิธีที่มันพัฒนาขึ้น ในแมชชีนเลิร์นนิง คอมพิวเตอร์จะ “เรียนรู้” ผ่านกระบวนการลองผิดลองถูก ปัญหาในการพูดคุยที่นําเสนอในการประชุม A.I. คือนักวิจัยที่ทํางานในสาขานี้ – เมื่อคอมพิวเตอร์ “เรียนรู้” เนื่องจากกระบวนการลองผิดลองถูก – ไม่เพียง แต่ไม่เข้าใจว่าอัลกอริทึมของพวกเขาเรียนรู้อย่างไร แต่พวกเขาไม่เข้าใจว่าเทคนิคที่พวกเขาใช้ในการสร้างอัลกอริทึมเหล่านั้นทํางานอย่างไร Rahimi แนะนําในการพูดคุยที่นําเสนอในการประชุม AI ที่ครอบคลุมเมื่อเร็ว ๆ นี้โดย Matthew Hutson for Science magazine
ย้อนกลับไปในปี 2017 Rahimi ส่งเสียงเตือนในด้านลึกลับของปัญญาประดิษฐ์: “เราให้ผลลัพธ์ที่น่าประทับใจอย่างน่าทึ่ง” รถยนต์ที่ขับเองดูเหมือนจะอยู่ใกล้ๆ ปัญญาประดิษฐ์แท็กใบหน้าในภาพถ่ายถอดความข้อความเสียงแปลเอกสารและฟีดโฆษณาให้เรา บริษัทมูลค่าหลายพันล้านดอลลาร์สร้างขึ้นจากแมชชีนเลิร์นนิง ในหลาย ๆ ด้านเราอยู่ในจุดที่ดีกว่าเมื่อ 10 ปีที่แล้ว ในบางแง่เราอยู่ในจุดที่แย่กว่านั้น” [เครื่องจักรอัจฉริยะพิเศษ: 7 หุ่นยนต์ฟิวเจอร์ส]
ตามที่ Hutson รายงานของ Rahimi แสดงให้เห็นว่าอัลกอริทึมแมชชีนเลิร์นนิงจํานวนมากมีคุณสมบัติที่ยึดติดซึ่งไร้ประโยชน์เป็นหลักและอัลกอริทึมจํานวนมากทํางานได้ดีขึ้นเมื่อคุณสมบัติเหล่านั้นถูกถอดออก อัลกอริทึมอื่น ๆ นั้นถูกทําลายโดยพื้นฐานและใช้งานได้เพียงเพราะเปลือกหนาของการแก้ไขเฉพาะกิจที่ซ้อนอยู่ด้านบนของโปรแกรมดั้งเดิม
นี่คืออย่างน้อยในส่วนของผลของเขตข้อมูลที่ได้รับใช้ในการชนิดของวิธีการสุ่มลองผิดลองถูก Rahimi แย้งในบล็อกที่ ภายใต้กระบวนการนี้นักวิจัยไม่เข้าใจเลยว่าทําไมความพยายามหนึ่งครั้งในการแก้ปัญหาจึงได้ผลและอีกความพยายามหนึ่งล้มเหลว ผู้คนใช้และแบ่งปันเทคนิคที่พวกเขาไม่เข้าใจจากระยะไกล
นี่คือภาพวาดที่สมบูรณ์ (เครดิตภาพ: สาธารณสมบัติ)
คนที่ติดตาม AI อาจได้รับการเตือนถึงปัญหา “กล่องดํา” ฮัตสันตั้งข้อสังเกตในบทความของเขา – แนวโน้มของโปรแกรม AI ในการแก้ปัญหาในแบบที่ผู้สร้างมนุษย์ไม่เข้าใจ แต่ปัญหาในปัจจุบันนั้นแตกต่างกัน: นักวิจัยไม่เพียง แต่ไม่เข้าใจเทคนิคการแก้ปัญหาของโปรแกรม AI เท่านั้น Rahimi กล่าว แต่พวกเขาไม่เข้าใจเทคนิคที่พวกเขาใช้ในการสร้างโปรแกรมเหล่านั้นตั้งแต่แรกเช่นกัน กล่าวอีกนัยหนึ่ง, เขตข้อมูลเป็นเหมือนการเล่นแร่แปรธาตุมากกว่าระบบการวิจัยที่ทันสมัย, เขากล่าวว่า.
”มีสถานที่สําหรับเล่นแร่แปรธาตุ การเล่นแร่แปรธาตุได้ผล” ราฮิมีเขียน
”นักเล่นแร่แปรธาตุคิดค้นโลหะวิทยา วิธีทํายา เทคนิค dy[e]ing สําหรับสิ่งทอ และกระบวนการทําแก้วสมัยใหม่ของเรา จากนั้นอีกครั้งนักเล่นแร่แปรธาตุยังเชื่อว่าพวกเขาสามารถเปลี่ยนโลหะฐานเป็นทองคําได้และปลิงเป็นวิธีที่ดีในการรักษาโรค”
ในการพูดคุยล่าสุดของเขา (และเอกสารประกอบ) ที่การประชุมระหว่างประเทศเกี่ยวกับการเป็นตัวแทนการเรียนรู้ในแวนคูเวอร์, แคนาดา, ราฮิมีและเพื่อนร่วมงานหลายคนเสนอจํานวนของวิธีการและโปรโตคอลที่สามารถย้ายการเรียนรู้ของเครื่องเกินโลกของการเล่นแร่แปรธาตุ. ในหมู่พวกเขา: การประเมินอัลกอริทึมใหม่ในแง่ของส่วนที่เป็นส่วนประกอบของพวกเขาลบบางส่วนของพวกเขาทีละคนและทดสอบว่าโปรแกรมโดยรวมยังคงทํางานอยู่หรือไม่และดําเนินการ “การทดสอบสติ” ขั้นพื้นฐานกับผลลัพธ์ที่อัลกอริทึมสร้างขึ้น
นั่นคือทั้งหมดเพราะ AI, Rahimi แย้งในบล็อกปี 2017 ของเขาได้กลายเป็นสิ่งสําคัญเกินไปในสังคมที่จะพัฒนาในรูปแบบตบตาดังกล่าวเว็บตรง