BLOG BOARD_B
ติดต่อรายละเอียดเพิ่มเติมได้ที่ Email: sale@soccersuck.com
ไว้คราวหน้า X
ไว้คราวหน้า X
ไม่ต้องแสดงข้อความนี้อีกเลย
ไปหน้าที่ 1
ไปที่หน้า
GO
ตั้งกระทู้ใหม่
ฝากรูป
ผู้ตั้ง
ข้อความ
ออนไลน์
ดาวเตะลา ลีกา
Status: ชีวิต..ติดแกลบ
: 0 ใบ : 0 ใบ
เข้าร่วม: 16 May 2020
ตอบ: 7314
ที่อยู่: ดาวโลก
โพสเมื่อ: Thu Dec 05, 2024 18:54
OpenAI เตรียมเปิดตัว Sora และ อัปเดทข่าวเทคโนโลยี
อุปกรณ์คอมพิวเตอร์อ่างเก็บน้ำทางกายภาพแบบใหม่เลียนแบบพฤติกรรมซินแนปส์ของมนุษย์เพื่อการประมวลผล AI ที่มีประสิทธิภาพ


อุปกรณ์คอมพิวเตอร์อ่างเก็บน้ำทางกายภาพแบบใหม่ที่มีค่าคงที่ของเวลาที่ควบคุมได้เลียนแบบพฤติกรรมซินแนปส์ของมนุษย์เพื่อการประมวลผล AI ขอบที่มีประสิทธิภาพ อุปกรณ์นี้สามารถตรวจจับการเคลื่อนไหวของมนุษย์ได้อย่างแม่นยำในขณะที่ใช้พลังงานน้อยมาก - Cr. Takashi Ikuno / Tokyo University of Science, Japan

นักวิจัยจากมหาวิทยาลัยวิทยาศาสตร์โตเกียว (Tokyo University of Science) ได้พัฒนาอุปกรณ์คอมพิวเตอร์แบบอ่างเก็บน้ำทางกายภาพ (Physical Reservoir Computing) ที่เลียนแบบพฤติกรรมของไซแนปส์ในสมองมนุษย์

อุปกรณ์นี้ใช้เซลล์แสงอาทิตย์ชนิดย้อมสี (Dye-Sensitized Solar Cell) ที่มีความสามารถในการปรับค่าคงที่เวลา (Time Constant) ตามความเข้มของแสงที่ได้รับ ซึ่งช่วยให้สามารถประมวลผลข้อมูลแบบอนุกรมที่มีช่วงเวลาหลากหลายได้อย่างมีประสิทธิภาพ

การทดสอบพบว่าอุปกรณ์นี้สามารถจำแนกการเคลื่อนไหวของมนุษย์ เช่น การงอ การกระโดด การวิ่ง และการเดิน ได้ด้วยความแม่นยำมากกว่า 90% นอกจากนี้ ยังใช้พลังงานเพียง 1% ของระบบแบบดั้งเดิม ซึ่งช่วยลดการปล่อยก๊าซคาร์บอนไดออกไซด์ที่เกี่ยวข้องได้อย่างมาก

ดร.ทาคาชิ อิคุโนะ (Dr. Takashi Ikuno) หัวหน้าทีมวิจัย กล่าวว่า "เราได้แสดงให้เห็นเป็นครั้งแรกในโลกว่าอุปกรณ์ที่พัฒนาขึ้นสามารถทำงานด้วยการใช้พลังงานต่ำมาก และยังสามารถระบุการเคลื่อนไหวของมนุษย์ได้ด้วยความแม่นยำสูง"


การสาธิตงานการจดจำการเคลื่อนไหวโดยใช้ระบบ PRC กับอุปกรณ์ซินแนปส์ที่ใช้ DSC (A) แผนผังของงานการจดจำการเคลื่อนไหวโดยใช้ DSC (B) การตอบสนองแรงดันไฟฟ้าชั่วขณะของเอาต์พุต DSC ด้วยภาพเคลื่อนไหวที่แบ่งแปดภาพ (การกระโดด) (C) เมทริกซ์ความสับสนของงานการจดจำการเคลื่อนไหว - Cr. Takashi Ikuno / Tokyo University of Science, Japan

อุปกรณ์นี้มีศักยภาพในการนำไปใช้ในระบบปัญญาประดิษฐ์ที่ต้องการการประมวลผลข้อมูลแบบเรียลไทม์และการใช้พลังงานต่ำ เช่น การตรวจจับเหตุฉุกเฉิน การเฝ้าระวังสุขภาพ และการตรวจสอบโครงสร้างพื้นฐาน

การพัฒนานี้เป็นก้าวสำคัญในการสร้างอุปกรณ์ที่เลียนแบบการทำงานของสมองมนุษย์ ซึ่งสามารถประมวลผลข้อมูลได้อย่างมีประสิทธิภาพและประหยัดพลังงาน ซึ่งเป็นปัจจัยสำคัญในการพัฒนาระบบปัญญาประดิษฐ์ในอนาคต

ที่มา: https://techxplore.com/news/2024-11-physical-reservoir-device-mimics-human.html, https://pubs.acs.org/doi/10.1021/acsami.4c11061

###############################################################


กรอบงานใหม่สามารถสร้างการสาธิตของมนุษย์ เพื่อให้หุ่นยนต์เกิดการเรียนรู้เลียนแบบได้


Cr. arXiv (2024). DOI: 10.48550/arxiv.2410.24221

นักวิจัยจากสถาบันเทคโนโลยีจอร์เจียได้พัฒนา "EgoMimic" ซึ่งเป็นกรอบการเรียนรู้ผ่านการเลียนแบบที่ช่วยให้หุ่นยนต์สามารถเรียนรู้การทำงานจากมุมมองของมนุษย์ได้อย่างมีประสิทธิภาพ เปิดเผยถึงการพัฒนา "EgoMimic" ซึ่งเป็นกรอบการเรียนรู้ด้วยการเลียนแบบแบบใหม่ที่ช่วยให้หุ่นยนต์สามารถเรียนรู้พฤติกรรมมนุษย์ได้จากมุมมองที่ใกล้ชิดกับความเป็นจริงมากที่สุด

โดยกรอบการทำงานนี้ถูกพัฒนาขึ้นโดยทีมวิจัยจากสถาบันเทคโนโลยีจอร์เจีย ร่วมกับ Meta Reality Labs Research ผู้ผลิตแว่นตาอัจฉริยะ Project Aria ซึ่งใช้บันทึกข้อมูลวิดีโอจากมุมมองบุคคลที่หนึ่ง (egocentric perspective) การใช้งานข้อมูลดังกล่าวช่วยให้หุ่นยนต์เข้าใจพฤติกรรมมนุษย์ในบริบทที่ซับซ้อนยิ่งขึ้น เช่น การหยิบจับวัตถุหรือการจัดการงานในชีวิตประจำวัน

EgoMimic ใช้การบันทึกข้อมูลจากแว่นตาอัจฉริยะควบคู่กับหุ่นยนต์ที่มีระบบกล้อง RealSense ของ Intel โดยระบบนี้จะช่วยประมวลผลข้อมูลที่ได้จากมุมมองของมนุษย์ และจับคู่กับการเคลื่อนไหวของหุ่นยนต์เอง การทำงานดังกล่าวทำให้สามารถสร้างรูปแบบการเลียนแบบที่มีประสิทธิภาพสูงขึ้น ซึ่งเป็นการพัฒนาที่สำคัญในเทคโนโลยีปัญญาประดิษฐ์และหุ่นยนต์สำหรับการใช้งานในสถานการณ์จริง เช่น การพับเสื้อผ้า หรือการช่วยเหลือในสถานการณ์ที่ต้องการความแม่นยำสูง


นักวิจัยเน้นย้ำถึงความสำเร็จของ EgoMimic เช่นเดียวกับโหมดความล้มเหลว เช่น (e) ไม่สามารถจัดตำแหน่งให้ตรงกับของเล่น (f) ไม่สามารถจับหูหิ้วของกระเป๋า หรือ (g) นโยบายจับเสื้อได้เพียงด้านเดียวเท่านั้น EgoMimic ช่วยลดความถี่ของโหมดความล้มเหลวเหล่านี้ ทำให้อัตราความสำเร็จเพิ่มขึ้น 8-33% เมื่อเทียบกับค่าพื้นฐาน - Cr. arXiv (2024). DOI: 10.48550/arxiv.2410.24221

ความโดดเด่นของ EgoMimic คือการใช้ข้อมูลจากมุมมองบุคคลที่หนึ่งเป็นตัวเชื่อมต่อระหว่างมนุษย์และหุ่นยนต์ โดยกรอบการทำงานนี้ไม่ได้อาศัยเพียงการเลียนแบบภาพรวมของการกระทำเท่านั้น แต่ยังคำนึงถึงรายละเอียดในระดับลึก เช่น การจัดตำแหน่งของมือหรือการกำหนดแรงกดสำหรับการหยิบจับวัตถุ ซึ่งช่วยให้หุ่นยนต์สามารถเข้าใจและดำเนินการในลักษณะที่เป็นธรรมชาติและใกล้เคียงกับมนุษย์มากยิ่งขึ้น

ในอนาคต การพัฒนากรอบการทำงานแบบ EgoMimic อาจนำไปสู่การปรับปรุงความสามารถของหุ่นยนต์ในการช่วยเหลืองานในชีวิตประจำวันของมนุษย์ได้อย่างหลากหลาย ไม่ว่าจะเป็นการทำงานบ้าน งานอุตสาหกรรม หรือแม้กระทั่งการดูแลผู้สูงอายุและผู้พิการ นอกจากนี้ ยังช่วยเพิ่มศักยภาพของหุ่นยนต์ในการเรียนรู้แบบปรับตัวเองได้จากสถานการณ์จริง ซึ่งถือเป็นก้าวสำคัญในการผลักดันความก้าวหน้าของเทคโนโลยีหุ่นยนต์และ AI สู่การใช้งานในโลกแห่งความเป็นจริงอย่างแท้จริง

ที่มา: https://techxplore.com/news/2024-11-framework-egocentric-human-imitation.html, https://arxiv.org/html/2410.24221v1, https://github.com/SimarKareer/EgoMimic

###############################################################

ระบบบอลลูน สามารถผลิตไฟฟ้าจากแสงอาทิตย์เฉพาะจุดให้กับพื้นดินด้านล่างได้


Cr. Energy (2024). DOI: 10.1016/j.energy.2024.133722

นักวิทยาศาสตร์ชาวจีนได้พัฒนาเทคโนโลยีใหม่ที่ใช้บอลลูนติดตั้งแผงโซลาร์เซลล์ลอยขึ้นไปในชั้นบรรยากาศ เพื่อรับแสงอาทิตย์โดยตรงและผลิตไฟฟ้า แนวคิดนี้มีศักยภาพในการเพิ่มประสิทธิภาพการผลิตพลังงานแสงอาทิตย์ เนื่องจากบอลลูนสามารถหลีกเลี่ยงปัญหาที่เกิดจากสภาพอากาศและมลภาวะบนพื้นดิน การทดลองเบื้องต้นแสดงให้เห็นว่าระบบนี้สามารถสร้างกำไรคิดเป็นเงินไทยได้สูงสุดถึง 3,700 บาทต่อวัน

การใช้บอลลูนพลังงานแสงอาทิตย์ยังมีข้อดีในด้านการลดต้นทุนการผลิต บอลลูนที่มีเส้นผ่านศูนย์กลางประมาณ 2 เมตร สามารถผลิตไฟฟ้าได้ถึง 500 วัตต์ ซึ่งทำให้พลังงานแสงอาทิตย์เข้าถึงได้มากขึ้นสำหรับบุคคลและบริษัท

นอกจากนี้ การติดตั้งแผงโซลาร์เซลล์บนบอลลูนยังช่วยลดการใช้พื้นที่บนพื้นดิน ซึ่งเป็นประโยชน์ในพื้นที่ที่มีความหนาแน่นสูงหรือมีข้อจำกัดด้านพื้นที่ การพัฒนานี้เป็นอีกก้าวสำคัญในการเพิ่มประสิทธิภาพและความยั่งยืนของการผลิตพลังงานแสงอาทิตย์

อย่างไรก็ตาม การนำเทคโนโลยีนี้มาใช้ยังต้องพิจารณาปัจจัยหลายประการ เช่น ความปลอดภัย ความทนทานของบอลลูน และการบำรุงรักษา แต่ด้วยความก้าวหน้าทางเทคโนโลยีในปัจจุบัน แนวคิดนี้มีศักยภาพที่จะเป็นทางเลือกใหม่ในการผลิตพลังงานสะอาดในอนาคต

ที่มา: https://techxplore.com/news/2024-11-balloon-localized-solar-electricity-ground.html, https://linkinghub.elsevier.com/retrieve/pii/S036054422403500X

###############################################################

นักวิจัยใช้ AI เพื่อเปลี่ยนการบันทึกเสียงเป็นภาพถนนที่แม่นยำ


Cr. University of Texas at Austin

นักวิจัยจากมหาวิทยาลัยเทกซัสที่ออสตินได้พัฒนาโมเดลปัญญาประดิษฐ์ที่สามารถสร้างภาพทิวทัศน์ถนนจากการบันทึกเสียงได้อย่างแม่นยำ โดยใช้ข้อมูลเสียงและภาพจากวิดีโอบน YouTube ที่บันทึกในเมืองต่าง ๆ ทั่วอเมริกาเหนือ เอเชีย และยุโรป ทีมวิจัยได้สร้างคู่ข้อมูลที่ประกอบด้วยคลิปเสียงความยาว 10 วินาทีและภาพนิ่งจากสถานที่ต่าง ๆ เพื่อฝึกโมเดล AI ให้สามารถสร้างภาพความละเอียดสูงจากข้อมูลเสียงได้

ผลการทดลองพบว่าผู้เข้าร่วมสามารถจับคู่ภาพที่ AI สร้างขึ้นกับคลิปเสียงที่สอดคล้องกันได้อย่างถูกต้องถึง 80% ซึ่งแสดงให้เห็นว่า AI สามารถเลียนแบบความสามารถของมนุษย์ในการเชื่อมโยงเสียงกับการรับรู้ภาพของสิ่งแวดล้อมได้


Cr. University of Texas at Austin

นอกจากนี้ ภาพที่สร้างขึ้นยังสะท้อนถึงสไตล์สถาปัตยกรรมและระยะห่างระหว่างวัตถุที่คล้ายคลึงกับภาพจริง รวมถึงสภาพแสงที่บ่งบอกถึงช่วงเวลาของวัน เช่น แสงแดด เมฆครึ้ม หรือเวลากลางคืน ซึ่งบ่งชี้ว่า AI สามารถรับรู้ข้อมูลหลายมิติที่ส่งผลต่อประสบการณ์ของสถานที่ได้

การพัฒนานี้เปิดโอกาสให้ AI สามารถสร้างภาพทิวทัศน์จากข้อมูลเสียงได้อย่างแม่นยำ ซึ่งอาจนำไปสู่การประยุกต์ใช้ในด้านต่าง ๆ เช่น การสร้างภาพในจินตนาการจากเสียง หรือการช่วยเหลือผู้ที่มีความบกพร่องทางการมองเห็นในการรับรู้สิ่งแวดล้อมผ่านเสียง

ที่มา: https://techxplore.com/news/2024-11-ai-accurate-street-images.html, https://www.utexas.edu, https://www.nature.com/articles/s41599-024-03645-7

###############################################################

ระบบการรับรู้และการเรียนรู้แบบหลายโหมดที่บูรณาการเข้าด้วยกันอาจมอบความสามารถใหม่ๆ ให้กับหุ่นยนต์


นิ้วหุ่นยนต์อ่อนที่ติดตั้งเซ็นเซอร์สัมผัสเพื่อจับไข่ ภาพด้านล่างขวาแสดงผลการรับรู้ทางสัมผัส - Cr. Binghao Huang

เพื่อช่วยมนุษย์ในการทำงานบ้านและงานมือในชีวิตประจำวันอื่น ๆ หุ่นยนต์ควรมีความสามารถในการจัดการวัตถุที่หลากหลายในแง่ของวัสดุ รูปร่าง และขนาด ทักษะการจัดการวัตถุของหุ่นยนต์ได้รับการพัฒนาอย่างมากในช่วงไม่กี่ปีที่ผ่านมา ส่วนหนึ่งเป็นผลมาจากการพัฒนากล้องและเซ็นเซอร์สัมผัสที่มีความซับซ้อนมากขึ้นอย่างต่อเนื่อง

การพัฒนาหุ่นยนต์ที่สามารถรับรู้และโต้ตอบกับสิ่งแวดล้อมได้โดยใช้ระบบการรับรู้แบบหลายมิติ (multi-modal perception) ซึ่งรวมเอาการมองเห็นและการสัมผัสเข้าด้วยกัน ทีมวิจัยจากมหาวิทยาลัยโคลัมเบียได้สร้างเซ็นเซอร์สัมผัสที่บางเพียง 0.5 มิลลิเมตร และสามารถติดตั้งบนพื้นผิวมือจับของหุ่นยนต์ ระบบนี้ช่วยให้หุ่นยนต์รับข้อมูลทั้งภาพและสัมผัสพร้อมกัน และสามารถประมวลผลข้อมูลดังกล่าวได้ในเวลาเพียงไม่กี่มิลลิวินาที

ระบบดังกล่าวได้รับการออกแบบเพื่อแก้ปัญหาความท้าทายในการจัดการวัตถุที่ซับซ้อน เช่น การหยิบจับวัตถุที่เปราะบางหรือมีพื้นผิวที่หลากหลาย จากการทดสอบในห้องปฏิบัติการ หุ่นยนต์ที่ใช้เซ็นเซอร์นี้สามารถจับไข่ดิบได้โดยไม่แตกใน 95% ของการทดลอง และยังสามารถหยิบผลไม้ขนาดเล็ก เช่น องุ่น หรือเชอร์รี่ ได้โดยไม่มีความเสียหายใน 98% ของกรณี

เทคโนโลยีนี้ยังเพิ่มความแม่นยำในการวางวัตถุ โดยการใช้ข้อมูลสัมผัสร่วมกับการมองเห็นช่วยให้หุ่นยนต์สามารถวางวัตถุในตำแหน่งที่กำหนดได้อย่างถูกต้องในระยะที่ผิดพลาดไม่เกิน 2 มิลลิเมตร ซึ่งเป็นการพัฒนาที่สำคัญเมื่อเทียบกับเทคโนโลยีแบบเดิมที่มีค่าความผิดพลาดเฉลี่ยอยู่ที่ 5-7 มิลลิเมตร

ในแง่ของต้นทุน เซ็นเซอร์สัมผัสนี้ถูกออกแบบให้ผลิตได้ง่ายด้วยวัสดุที่หาได้ทั่วไป ทำให้ต้นทุนการผลิตลดลงถึง 30% เมื่อเปรียบเทียบกับระบบรับรู้แบบเดิม การลดต้นทุนนี้เปิดโอกาสให้เทคโนโลยีสามารถนำไปใช้ในอุตสาหกรรมที่ต้องการความละเอียดอ่อนสูง เช่น การแพทย์ การบรรจุภัณฑ์อาหาร หรือการผลิตเครื่องใช้ไฟฟ้า

อนาคตของระบบการรับรู้แบบหลายมิตินี้ยังมีศักยภาพในการพัฒนาเพิ่มเติม เช่น การเพิ่มเซ็นเซอร์ที่รองรับแรงสัมผัสสูงสุดถึง 50 นิวตัน ซึ่งจะทำให้หุ่นยนต์สามารถจัดการกับวัตถุที่มีน้ำหนักมากขึ้นได้โดยไม่เสียความแม่นยำ ระบบนี้จึงเป็นก้าวสำคัญที่จะช่วยเพิ่มประสิทธิภาพและความปลอดภัยในการใช้งานหุ่นยนต์ในสถานการณ์ที่หลากหลายและซับซ้อนมากยิ่งขึ้นในอนาคต

ที่มา: https://techxplore.com/news/2024-11-multi-modal-robots-capabilities.html, https://arxiv.org/abs/2410.24091

###############################################################

AI สามารถสร้างแบบจำลองบุคลิกภาพของบุคคลได้อย่างเหมาะสมหลังจากสัมภาษณ์สองชั่วโมง


อินเทอร์เฟซการสัมภาษณ์ A) อินเทอร์เฟซการสัมภาษณ์หลัก: สไปรต์ 2 มิติที่แสดงถึงตัวแทนผู้สัมภาษณ์ AI จะแสดงเป็นวงกลมสีขาวที่เต้นเป็นจังหวะเพื่อให้ตรงกับระดับเสียง โดยแสดงภาพคำพูดของตัวแทนผู้สัมภาษณ์ในระหว่างที่ตัวแทนผู้สัมภาษณ์ AI เคลื่อนไหว B) การตอบสนองของผู้เข้าร่วม: สไปรต์ 2 มิติของตัวแทนผู้สัมภาษณ์ AI จะเปลี่ยนเป็นรูปอีโมจิไมโครโฟนเมื่อถึงตาผู้เข้าร่วมที่จะตอบสนอง โดยวงกลมสีขาวจะเต้นเป็นจังหวะเพื่อให้ตรงกับระดับเสียงของผู้เข้าร่วมที่ถูกจับภาพไว้ C) แถบความคืบหน้าและคำบรรยาย: แผนที่สไปรต์ 2 มิติแสดงอวาตาร์ภาพของผู้เข้าร่วมที่เคลื่อนที่จากจุดสิ้นสุดจุดหนึ่งไปยังอีกจุดหนึ่งในแนวเส้นตรง ซึ่งบ่งชี้ถึงความคืบหน้า อินเทอร์เฟซยังมีตัวเลือกในการแสดงคำบรรยายหรือหยุดการสัมภาษณ์ชั่วคราว - Cr. arXiv (2024) DOI: 10.48550/arxiv.2411.10109

นักวิจัยจาก Google DeepMind ได้เปิดตัวระบบปัญญาประดิษฐ์ที่สามารถสร้างแบบจำลองบุคลิกภาพของบุคคลได้อย่างแม่นยำหลังจากการสัมภาษณ์เพียง 2 ชั่วโมง โดยระบบนี้อาศัยการใช้โมเดลภาษาขนาดใหญ่ (LLM) ที่ถูกพัฒนาเพื่อวิเคราะห์คำตอบจากผู้ถูกสัมภาษณ์ และสร้าง "ตัวแทนบุคลิกภาพ" ที่มีความใกล้เคียงกับบุคคลจริงมากที่สุด เทคโนโลยีนี้สามารถใช้เพื่อประยุกต์ในหลากหลายด้าน เช่น การวิจัยทางจิตวิทยา การศึกษาพฤติกรรมผู้บริโภค หรือแม้แต่การสร้าง AI ที่จำลองพฤติกรรมมนุษย์ในเกมและแอปพลิเคชัน

จากการทดสอบ ทีมวิจัยพบว่า "ตัวแทนบุคลิกภาพ" ที่ถูกสร้างขึ้นสามารถตอบคำถามในลักษณะเดียวกับบุคคลจริงได้ในระดับความถูกต้อง 85% นอกจากนี้ AI ยังสามารถระบุคุณลักษณะสำคัญ เช่น ความเปิดกว้าง ความซื่อตรง ความอ่อนโยน และความมั่นคงทางอารมณ์ของบุคคลได้อย่างแม่นยำ ระบบนี้จึงมีศักยภาพในการช่วยนักวิจัยลดเวลาและค่าใช้จ่ายในการเก็บข้อมูลบุคลิกภาพจากการสัมภาษณ์แบบเดิม

หนึ่งในความโดดเด่นของระบบนี้คือความสามารถในการทำงานได้อย่างมีประสิทธิภาพ โดยใช้เพียง 50,000 บรรทัดข้อมูล ในการฝึกอบรมโมเดล ซึ่งถือว่าน้อยมากเมื่อเทียบกับโมเดลภาษาขนาดใหญ่ทั่วไปที่ต้องใช้ข้อมูลหลายร้อยล้านบรรทัด การลดปริมาณข้อมูลที่ใช้ฝึกอบรมนี้ช่วยประหยัดทรัพยากรและเวลาในการพัฒนา AI ได้อย่างมาก

การประยุกต์ใช้งานระบบนี้ในโลกแห่งความจริงอาจครอบคลุมถึงการสร้างผู้ช่วย AI ที่เข้าใจบุคลิกภาพของผู้ใช้ และสามารถให้คำแนะนำหรือปรับการตอบสนองตามลักษณะเฉพาะของแต่ละคน รวมถึงในด้านการศึกษาและการแพทย์ เช่น การออกแบบโปรแกรมบำบัดสำหรับผู้ที่มีปัญหาสุขภาพจิตโดยอิงจากข้อมูลบุคลิกภาพเฉพาะบุคคล

ระบบใหม่นี้ยังมีแผนที่จะพัฒนาเพิ่มเติมเพื่อรองรับการเก็บข้อมูลที่หลากหลายยิ่งขึ้น เช่น การวิเคราะห์จากเสียงและการแสดงออกทางร่างกาย เพื่อเพิ่มความแม่นยำในการสร้างแบบจำลองบุคลิกภาพ ปัจจุบันทีมวิจัยกำลังร่วมมือกับสถาบันวิจัยต่าง ๆ เพื่อทดสอบการใช้งานในระดับอุตสาหกรรม และคาดว่าจะเปิดตัวระบบนี้สำหรับการใช้งานเชิงพาณิชย์ภายในปี 2025

ที่มา: https://techxplore.com/news/2024-11-ai-facsimile-person-personality-hour.html, https://arxiv.org/abs/2411.10109

###############################################################

หุ่นยนต์ฮิวแมนนอยด์ตัวใหม่ Walker S1 เขย่าอุตสาหกรรม AI ด้วยการสาธิตเทคโนโลยี 41 แกน


Walker S1 มีความสูง 1.45 เมตร น้ำหนัก 77 กิโลกรัม และมีความคล่องตัวสูง สามารถเดิน วิ่ง และปีนบันไดได้ นอกจากนี้ ยังมีมือที่มีความละเอียดอ่อน สามารถยกวัตถุที่มีน้ำหนักสูงสุดถึง 3 กิโลกรัม และตอบสนองต่อคำสั่งเสียงได้ - Cr. ubtrobot

Ubitus Walker S1 เป็นหุ่นยนต์ฮิวแมนนอยด์รุ่นใหม่ที่ถูกออกแบบมาเพื่อใช้งานในภาคอุตสาหกรรม โดยเปิดตัวอย่างเป็นทางการในโรงงาน BYD หุ่นยนต์รุ่นนี้เป็นนวัตกรรมที่รวมเอาการทำงานร่วมกันระหว่างยานพาหนะลอจิสติกส์ไร้คนขับ เช่น รถยกอัตโนมัติ หุ่นยนต์เคลื่อนที่ และระบบการจัดการการผลิตอัจฉริยะ Walker S1 ได้รับการปรับปรุงผ่านการฝึกอบรมและการพัฒนาซอฟต์แวร์และฮาร์ดแวร์เพื่อให้เหมาะสมกับงานที่ต้องการความเสถียร ความปลอดภัย และความแม่นยำสูงในสภาพแวดล้อมการผลิต

Ubitus ได้มุ่งเน้นการพัฒนาหุ่นยนต์ฮิวแมนนอยด์สำหรับการใช้งานในอุตสาหกรรมยานยนต์และ 3C โดยมีการร่วมมือกับบริษัทรถยนต์ชั้นนำ เช่น BYD, Audi FAW, และ Geely รวมถึงการทำงานข้ามอุตสาหกรรมกับบริษัทอย่าง Foxconn และ Shunfeng นอกจากนี้ Walker S1 ยังได้เข้าสู่การใช้งานจริงในโรงงานต่าง ๆ และได้รับคำสั่งซื้อจากโรงงานยานยนต์มากกว่า 500 คำสั่ง ซึ่งแสดงให้เห็นถึงความต้องการในตลาดสำหรับเทคโนโลยีที่ล้ำหน้าเช่นนี้



ในด้านเทคนิค Walker S1 ได้รับการปรับปรุงในสามด้านหลัก ได้แก่ เทคโนโลยีข้อต่อแบบผสมผสาน การออกแบบส่วนหัวแบบบูรณาการ และมือที่มีความคล่องตัวสูง เทคโนโลยีข้อต่อแบบผสมผสานช่วยเพิ่มความแม่นยำในการเคลื่อนไหว ขณะที่ส่วนหัวสามารถตรวจจับสภาพแวดล้อมแบบ 360 องศา และให้การโต้ตอบด้วยเสียงและภาพแบบเรียลไทม์ มือของหุ่นยนต์ยังถูกออกแบบให้มีความละเอียดในการจับวัตถุ พร้อมรองรับน้ำหนักสูงสุด 15 กิโลกรัม เพื่อตอบสนองงานในสถานการณ์อุตสาหกรรมที่หลากหลาย

เพื่อเพิ่มประสิทธิภาพการทำงานของหุ่นยนต์ Ubitus ได้พัฒนา ROSA2.0 ซึ่งเป็นเฟรมเวิร์กระบบปฏิบัติการหุ่นยนต์ที่ช่วยให้การจัดการซอฟต์แวร์และฮาร์ดแวร์เป็นไปอย่างราบรื่น ระบบนี้ช่วยลดความซับซ้อนในการพัฒนาและการอัปเกรดโมดูลอัลกอริธึมของหุ่นยนต์ ทำให้ Walker S1 สามารถปรับตัวได้ดียิ่งขึ้นกับการเปลี่ยนแปลงในสภาพแวดล้อมการผลิต

Walker S1 ยังถูกพัฒนาขึ้นเพื่อตอบสนองต่อความต้องการแรงงานที่ขาดแคลนในภาคการผลิตของจีน ซึ่งคาดว่าจะมีการขาดแคลนแรงงานถึง 30 ล้านคนภายในปี 2025 ด้วยการปรับตัวให้เข้ากับงานที่ซับซ้อนในสภาพแวดล้อมที่ไม่มีโครงสร้าง หุ่นยนต์รุ่นนี้มีศักยภาพในการช่วยลดภาระงานและเพิ่มประสิทธิภาพในสายการผลิตได้อย่างยั่งยืน

ที่มา: https://www.ubtrobot.com/en/humanoid/products/WalkerS1, https://th.reemanrobot.com/news/ubitus-new-generation-industrial-humanoid-robo-82446607.html

###############################################################

วิศวกรสร้างโดรนซึ่งได้รับแรงบันดาลใจจากแร็พเตอร์ พร้อมปีกที่เปลี่ยนรูปร่างได้และหางที่บิดได้ซึ่งสามารถเริ่มการบินเอียงได้


การเคลื่อนไหวด้วยความเร็วสูงที่เฉียบคมซึ่งทำได้โดยการบิดหางพร้อมและไม่มีการประสานกันของการเปลี่ยนรูปร่างปีก - Cr. Hoang-Vu Phan

วิศวกรจาก École Polytechnique Fédérale de Lausanne (EPFL) ได้พัฒนาโดรนที่ได้รับแรงบันดาลใจจากนกล่าเหยื่อ โดยมีปีกและหางที่สามารถปรับเปลี่ยนรูปทรงได้ โดรนนี้สามารถเลี้ยวโค้งได้โดยไม่ต้องใช้ปีก การออกแบบนี้เลียนแบบเทคนิคการบินของเหยี่ยว ซึ่งใช้การบิดหางเพื่อควบคุมทิศทาง


การเคลื่อนไหวแบบคู่กันของโครงกระดูกปีกนกรอบข้อศอกและข้อมือ (C) เป็นแรงบันดาลใจในการออกแบบโครงกระดูกปีกหุ่นยนต์ (D) - Cr. Hoang-Vu Phan

ทีมวิจัยได้สร้างโครงสร้างปีกและหางที่คล้ายกับกระดูกและข้อต่อของนกล่าเหยื่อ โดยใช้วัสดุน้ำหนักเบาและปกคลุมด้วยขนนกโฟม โดรนนี้ถูกทดสอบในอุโมงค์ลม และบินได้อย่างมีประสิทธิภาพโดยการบิดหางเพียงเล็กน้อย



การบิดหางทำให้เกิดการไหลของอากาศที่ไม่สมมาตรเหนือปีกและหาง ส่งผลให้เกิดแรงยกที่ไม่สมดุล ทำให้โดรนเอียงไปด้านหนึ่งและเลี้ยวโค้งได้ การค้นพบนี้ไม่เพียองนกล่าเหยื่อ แต่ยังสามารถนำไปใช้ในการออกแบบโดรนรุ่นใหม่ที่สามารถเลี้ยวได้อย่างราบรื่นยิ่งขึ้น

การวิจัยนี้ได้รับการตีพิมพ์ในวารสาร Science Robotics โดย Hoang-Vu Phan และ Dario Floreano พวกเขาเชื่อว่าการออกแบบโดรนที่เลียนแบบการบินของนกจะช่วยเพิระสิทธิภาพในการบินของโดรนในอนาคต



ที่มา: https://techxplore.com/news/2024-11-raptor-feathered-drone-morphable-wings.html, https://www.science.org/doi/10.1126/scirobotics.ado3890

###############################################################

นักต้มตุ๋นใช้ประโยชน์จากการพิมพ์ผิดเล็กๆน้อยๆ เพื่อหลอกล่อผู้คนให้ส่งเงินไปยังกระเป๋าเงินคริปโตของพวกเขา


ผู้โจมตีสามารถ "ล้อม" โดเมน Web3 ที่ไม่เป็นอันตรายเพื่อใช้ประโยชน์จากข้อผิดพลาดในการพิมพ์ ซึ่งแตกต่างจากการแย่งชิงโดเมนแบบเดิม ข้อผิดพลาดในการพิมพ์เพียงครั้งเดียวอาจส่งผลให้สูญเสียเงินทุนของผู้ใช้ทันทีและไม่สามารถเพิกถอนได้ - Cr. arXiv (2024) DOI: 10.48550/arxiv.2411.00352

นักวิจัยจากมหาวิทยาลัยสโตนีบรูค (Stony Brook University) ได้ค้นพบวิธีการใหม่ที่มิจฉาชีพใช้ในการหลอกลวงผู้ใช้สกุลเงินดิจิทัลผ่านการพิมพ์ผิดเล็กน้อยที่เรียกว่า "Typosquatting"

โดยมิจฉาชีพจะสร้างชื่อโดเมนในระบบ Blockchain Naming Systems (BNS) ที่คล้ายกับชื่อที่เป็นที่รู้จัก แต่มีการสะกดที่แตกต่างกันเพียงเล็กน้อย เมื่อผู้ใช้พิมพ์ที่อยู่กระเป๋าเงินดิจิทัลผิดเพียงตัวอักษรเดียว เงินที่ส่งจะถูกโอนเข้าสู่กระเป๋าเงินของมิจฉาชีพทันที และไม่สามารถเรียกคืนได้

จากการศึกษาพบว่า มีโดเมนที่ถูกสร้างขึ้นเพื่อการหลอกลวงนี้ประมาณ 25,000 โดเมน ซึ่งคิดเป็นประมาณ 37% ของชื่อโดเมนที่ถูกต้อง มิจฉาชีพมักจะเล็งเป้าหมายไปที่บุคคลที่มีชื่อเสียงในวงการสกุลเงินดิจิทัล เช่น วิตาลิก บูเทอริน (Vitalik Buterin) ผู้ร่วมก่อตั้ง Ethereum ซึ่งชื่อของเขามีโอกาสพิมพ์ผิดได้ง่าย ในกรณีของการบริจาค ทั้งผู้ส่งและผู้รับอาจไม่ทราบว่าถูกหลอกลวง

เพื่อป้องกันตนเองจากการหลอกลวงประเภทนี้ ผู้ใช้ควรตรวจสอบความถูกต้องของที่อยู่กระเป๋าเงินดิจิทัลอย่างละเอียดก่อนทำการโอนเงิน และควรใช้ฟังก์ชันคัดลอกและวางที่อยู่จากแหล่งที่เชื่อถือได้ เพื่อลดความเสี่ยงในการพิมพ์ผิด

การหลอกลวงผ่านการพิมพ์ผิดนี้เป็นปัญหาที่เพิ่มขึ้นในวงการสกุลเงินดิจิทัล ดังนั้น การเพิ่มความระมัดระวังและตรวจสอบข้อมูลอย่างถี่ถ้วนก่อนทำธุรกรรมจะช่วยลดความเสี่ยงในการตกเป็นเหยื่อของมิจฉาชีพ

ที่มา: https://techxplore.com/news/2024-11-scammers-exploit-tiny-typos-people.html, https://arxiv.org/abs/2411.00352

###############################################################

จะแม่นไปไหน? รู้จักกับทวิตเอไอ AIXBT ที่ชี้เป้าโทเคนมาแรงได้ถูกต้องมากถึง 80%


Cr. Virtuals Protocol

AIXBT เป็นหนึ่งในโปรเจกต์ AI agent ของ Virtuals Protocol ecosystem ซึ่งนับตั้งแต่ในเดือนพฤศจิกายนที่ผ่านมาก็ได้รับเสียงตอบรับที่ดีอย่างล้นหลาม ด้วยความแม่นของตัว AI สามารถชี้เป้าโทเค็นคริปโตได้อย่างแม่นยำ

นักวิเคราะห์ Pix On Chain เปิดเผยว่าในบรรดาโทเคน 210 สกุลที่ AIXBT ได้ทำการวิเคราะห์และชี้เป้ากว่า 183 โทเคนนั้นสามารถสร้างกำไรให้กับนักลงทุน คิดเป็น 83% ของโทเคนทั้งหมดที่วิเคราะห์มา

สำหรับตัวอย่างชี้เป้าโทเคนที่โดดเด่นของ AIXBT ตกเป็นของโทเคน SAINT และ ANON ทั้งคู่อยู่ในหมวดหมู่ AI ซึ่งสร้างผลตอบแทน 1,458% และ 1,496% ตามลำดับ ขณะที่เหรียญ RWA อย่าง PIN ก็ให้ผลตอบแทนสูงถึง 600% เช่นกัน


อย่างไรก็ตาม แม้ว่า AI จะมีศักยภาพในการทำนายโทเค็นได้ดี แต่ก็ไม่ได้แม่นยำเสมอไป ตัวอย่างเช่น ในกรณีที่เกิดความผิดพลาด โทเค็นในหมวดหมู่ Memecoins และ SocialFi หลายตัวกลับมีผลประกอบการต่ำกว่าเป้าหมายอย่างมาก โดยเฉพาะโทเค็นอย่าง CONSENT และ BARSIK ที่ประสบการขาดทุนอย่างหนักถึง 99.9% และ 82.2% ตามลำดับ

แม้เทรนด์ AI และเหรียญคริปโต โดยเฉพาะเหรียญมีม จะกำลังมาแรงในตอนนี้ แต่การลงทุนในสินทรัพย์ดิจิทัลยังคงมีความเสี่ยงสูง นักลงทุนจึงควรศึกษาข้อมูลให้รอบคอบก่อนเริ่มต้น เพราะมีโอกาสที่จะสูญเสียเงินลงทุนทั้งหมด

ที่มา: https://siamblockchain.com/2024/12/03/what-is-aixbt, https://cryptobriefing.com/ai-crypto-predictions-impressive-gains/

###############################################################

OpenAI ประกาศจัดงาน 12 days of OpenAI เปิดตัวผลิตภัณฑ์หรือโมเดลใหม่ทุกวัน


การรั่วไหลของเครื่องมือ Sora ของ OpenAI ก่อนหน้านี้ก่อให้เกิดความโกลาหลแก่ศิลปินเกี่ยวกับความสามารถของมัน - Cr. evrimagaci.org

OpenAI ผู้สร้าง ChatGPT เตรียมจัดงาน "12 days of OpenAI" เปิดตัวโมเดลหรือฟีเจอร์ใหม่ทุกวัน เป็นเวลา 2 สัปดาห์ Sora, o1 และอื่น ๆ ซึ่งงานนี้เรียกได้ว่าเปิดศึกกับคู่แข่งหลายเจ้าที่กำลังพัฒนาปัญญาประดิษฐ์ในปีนี้

OpenAI ผู้สร้าง ChatGPT เพิ่งประกาศจัดงาน "12 days of OpenAI" โดยจะเปิดตัวโมเดลหรือฟีเจอร์ใหม่ทุกวันทำการ เป็นเวลาสองสัปดาห์ข้างหน้า โดยการคาดการณ์บนโซเชียลมีเดีย ส่วนใหญ่คาดว่าจะมีการเปิดตัว Sora โปรแกรมสร้างวิดีโอ AI, o1 โมเดลการให้เหตุผลแบบเต็มรูปแบบ และการควบคุมเสียงพูดใน ChatGPT Advanced Voice ที่ได้รับการปรับปรุงโดยใช้ Voice Engine

Sam Altman ซีอีโอของ OpenAI โพสต์บน X ว่า "ในแต่ละวันทำการ เราจะมีการถ่ายทอดสดพร้อมการเปิดตัวหรือการสาธิต ทั้งแบบใหญ่ๆ และแบบเล็กๆน้อย ๆ เรามีสิ่งดีๆ มากมายที่จะแบ่งปัน หวังว่าคุณจะสนุก! สุขสันต์วันคริสต์มาส"


OpenAI ไม่ได้หยุดนิ่งในช่วงปีที่ผ่านมา บริษัทได้เปิดตัว GPT-4o, Advanced Voice, o1, ChatGPT Canvas และอื่น ๆ อีกมากมายนับตั้งแต่เดือนมกราคมปีที่แล้ว และยังมีการประกาศเพิ่มเติมอีกด้วย และสิ่งที่เราอาจจะได้เห็นในอีกสองสัปดาห์ข้างหน้า ก็คือ การประกาศเหล่านั้นบางส่วนจะกลายเป็นผลิตภัณฑ์ที่เราสามารถใช้งานได้จริง

ในบรรดาสิ่งที่ OpenAI อาจประกาศในช่วงงาน "12 days" นี้ Sora น่าจะเป็นที่จับตามองมากที่สุด แม้ว่าความสนใจอาจจะลดลงบ้างเมื่อเทียบกับ 6 เดือนก่อน เนื่องจากปัจจุบันมีโมเดลอย่าง Hailuo MiniMax, Runway Gen-3 และ Kling แต่ Sora ก็ยังคงเป็นเรื่องใหญ่ และการรั่วไหลของข้อมูลล่าสุดชี้ให้เห็นว่า Sora ยังคงเป็นผู้นำในด้านนี้


Cr. wccftech.com

✎ นอกจากนี้ คาดว่าจะมีการเปิดตัว o1 โมเดลการให้เหตุผลแบบเต็มรูปแบบ ซึ่งน่าจะทำให้สามารถเข้าถึงหน่วยความจำของ ChatGPT, GPTs และข้อมูลการค้นหาแบบเรียลไทม์ ทำให้มีประโยชน์มากขึ้นในการวางแผนโครงการ หรือทำงานกับแนวคิดที่ซับซ้อน

✎ GPT-4o สามารถสร้างรูปภาพได้ แต่เป็นฟีเจอร์ที่ยังไม่มีใครสามารถใช้งานได้ เนื่องจาก OpenAI ได้ล็อกไว้ ซึ่งอาจมีการเปิดให้ใช้งานในช่วง 12 วันนี้ โดยการสาธิตก่อนหน้านี้แสดงให้เห็นถึงผลลัพธ์และการควบคุมที่น่าประทับใจ

✎ Advanced Voice มีประสิทธิภาพ แต่ยังสามารถปรับปรุงได้อีก ซึ่งอาจรวมถึงการให้สิทธิ์เข้าถึงการค้นหาแบบเรียลไทม์ และฟีเจอร์อื่น ๆ เราอาจเห็นความสามารถในการมองผ่านเว็บแคม หรือกล้องโทรศัพท์ เพื่อวิเคราะห์โลกแห่งความเป็นจริง

✎ เราอาจเห็นการอัปเดต Canvas รวมถึงฟีเจอร์ที่เคยมีการพูดถึงในช่วงเปิดตัวครั้งแรก เช่น การซ้อนองค์ประกอบ Canvas ต่าง ๆ ภายในแชท ภายใน ChatGPT เราอาจได้รับฟีเจอร์ดั้งเดิมอื่น ๆ ของ GPT-4o เช่น กราฟิกแบบเวกเตอร์ และการวิเคราะห์วิดีโอ ซึ่งจะทำให้แชทบอทมีประโยชน์มากขึ้น

✎ เราอาจได้รับการประกาศเพิ่มเติม เช่น ตัวอย่างของ o2 หรือ GPT-5o นอกเหนือจากแบบจำลองภาษา เราอาจได้รับ Sora-Turbo โดยที่ "Sora-full" จะมาในเร็ว ๆ นี้ จากนั้นก็มี Voice Engine เครื่องมือแปลงข้อความเป็นคำพูดของ OpenAI และ 'operator' เฟรมเวิร์กเอเจนต์ของ OpenAI ที่มีข่าวลือว่าจะเปิดตัวในปีหน้า

ไม่ว่าจะมีการประกาศอะไรในช่วง 12 วันของ OpenAI ก็ตาม มันจะเป็นการนำไปสู่ยุคใหม่ของปัญญาประดิษฐ์ นอกจากนี้ ยังเป็นช่วงเวลาที่ Google Gemini มีอายุครบ 1 ปี ดังนั้น คาดว่าเราจะได้รับการประกาศจาก Google ในสัปดาห์เดียวกันนี้ด้วย


ที่มา: https://www.springnews.co.th/digital-tech/technology/854478, https://www.tomsguide.com/ai/chatgpt/openai-announces-12-days-of-openai-with-a-new-product-or-model-every-day
โหวตเป็นกระทู้แนะนำ
ออนไลน์
ซุปตาร์ยูโร
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 20 Oct 2009
ตอบ: 16970
ที่อยู่:
โพสเมื่อ: Thu Dec 05, 2024 21:45
[RE: OpenAI เตรียมเปิดตัว Sora และ อัปเดทข่าวเทคโนโลยี]
Sora คุณภาพดีจริงฮะ ผมการันตี
1
0
หากโดน 40 เรื้อน จะถูกแบน
ออนไลน์
CJr
ดาวเตะพรีเมียร์ลีก
Status:
: 0 ใบ : 0 ใบ
เข้าร่วม: 13 Mar 2018
ตอบ: 12105
ที่อยู่:
โพสเมื่อ: Thu Dec 05, 2024 22:46
[RE: OpenAI เตรียมเปิดตัว Sora และ อัปเดทข่าวเทคโนโลยี]
ความรู้ใหม่เลยครับ

แต่ Sora ที่ผมเคยใช้นี่รีไทร์ไปนานแล้ว
1
0
หากโดน 40 เรื้อน จะถูกแบน
ไปหน้าที่ 1
ไปที่หน้า
GO
ตั้งกระทู้ใหม่
กรุณาระบุเหตุผลที่จะแจ้งความ
ผู้ต้องหา:
ข้อความ:
Submit
Cancel
กรุณาเลือก Forum และ ประเภทกระทู้
Forum:

ประเภท:
Submit
Cancel