OpenCog — Вікіпедія

OpenCog
Тип вільне та відкрите програмне забезпечення і SMT solverd
Автор OpenCog Developers
Розробник OpenCog Foundation
Перший випуск 21 січня, 2008; 16 років тому (2008-01-21)[1]
Версії 5.0.3 (28 червня 2016)[2]
Платформа Linux
Мова програмування C++, Python і Scheme
Ліцензія GNU Affero General Public License, version 3.0d[3][4]
Репозиторій github.com/opencog/atomspace
Вебсайт opencog.org

OpenCog — це проєкт, який має на меті побудувати фреймворк штучного інтелекту з відкритим кодом. OpenCog Prime — це архітектура для машинного і віртуального втіленого пізнання, що визначає набір взаємодіючих компонентів, розроблених для того, щоб створити еквівалентний до людини сильний штучний інтелект (СШІ) як новий емерджентний феномен усієї системи.[5] Дизайн OpenCog Prime — це в першу чергу робота Бена Герцеля, тоді як фреймворк OpenCog призначений як загальна структура для широких досліджень СШІ. Дослідження з використанням OpenCog були опубліковані в журналах і представлені на конференціях і семінарах, включаючи щорічну конференцію зі сильного штучного інтелекту[en]. OpenCog випускається на умовах загальної публічної ліцензії GNU Affero.

OpenCog використовується більш ніж 50 компаніями, включаючи Huawei і Cisco.[6]

Походження[ред. | ред. код]

Спочатку OpenCog базувався на вихідному коді пропрієтарного «Novamente Cognition Engine» (NCE), випущеному в 2008 році компанією Novamente LLC. Оригінальний код NCE обговорюється в книзі PLN (див. нижче). Постійна розробка OpenCog підтримується Інститутом досліджень сильного штучного інтелекту (англ. Artificial General Intelligence Research Institute), проєктом Google Summer of Code, Hanson Robotics[en], SingularityNET та іншими.

Компоненти[ред. | ред. код]

OpenCog складається з:

  • Колекції попередньо-визначених атомів, що кодують SMT розв'язувач, вбудований до загального механізму графових запитів для виконання зіставлення графів і шаблонів гіперграфів (виявлення ізоморфних підграфів). Це узагальнює ідею мови структурованих запитів (SQL) на область загальних графових запитів. Це розширена форма графової мови запитів.
  • Підсистеми розподілу уваги на основі економічної теорії, яка називається ECAN.[7] Ця підсистема використовується для керування комбінаторним вибухом можливостей пошуку, які зустрічаються під час висновку та ланцюжка (англ. chaining).
  • Системи генерації природної мови.[9]
  • Інтерфейсів до роботів Hanson Robotics[en], включаючи моделювання емоцій[11] через OpenPsi. Це також включає проєкт Loving AI, що використовується для демонстрації технік медитації.

Організація та фінансування[ред. | ред. код]

У 2008 році науково-дослідний Інститут машинного інтелекту (MIRI), що раніше мав назву Інститут сингулярності (англ. The Singularity Institute for Artificial Intelligence), спонсорував кількох дослідників та інженерів. Великий внесок у розвиток проєкту був зроблений спільнотою open source після участі OpenCog у Google Summer of Code у 2008 та 2009 роках. Наразі MIRI більше не підтримує OpenCog.[12] OpenCog отримав фінансування та підтримку з декількох джерел, серед яких уряд Гонконгу, Гонконгський політехнічний університет, Фонд Джеффрі Епштейна VI[en][13] та Hanson Robotics[en]. Зараз проєкт OpenCog пов'язаний з SingularityNET і Hanson Robotics.

Використання[ред. | ред. код]

Подібно до інших когнітивних архітектур[en], основною метою проєкту є створення віртуальних людей, тривимірних персонажів аватарів. Мета — імітувати поведінку, як-от емоції, жести та навчання. Наприклад, модуль емоцій у програмному забезпеченні був запрограмований лише тому, що люди мають емоції. Сильний штучний інтелект може також бути реалізованим, якщо він моделює інтелект людей.[14]

Самоопис проєкту OpenCog надає додаткове можливе використання, що спрямоване на обробку природньої мови та симуляцію собаки.[15]

Див. також[ред. | ред. код]

Джерела[ред. | ред. код]

  • Hart, D; B Goertzel (2008). OpenCog: A Software Framework for Integrative Artificial General Intelligence (PDF). Proceedings of the First AGI Conference. Архів оригіналу (PDF) за 1 грудня 2014. Процитовано 26 грудня 2021. Gbooks [Архівовано 26 грудня 2021 у Wayback Machine.]

Примітки[ред. | ред. код]

  1. OpenCog Release. 21 січня 2008. Архів оригіналу за 28 січня 2016. Процитовано 21 січня 2008.
  2. Release 5.0.3 — 2016.
  3. https://github.com/opencog/atomspace/blob/master/LICENSE
  4. The opencog Open Source Project on Open Hub: Licenses Page — 2006.
  5. OpenCog: Open-Source Artificial General Intelligence for Virtual Worlds | CyberTech News. 6 березня 2009. Архів оригіналу за 6 березня 2009. Процитовано 1 жовтня 2016.
  6. Rogers, Stewart (7 грудня 2017). SingularityNET talks collaborative AI as its token sale hits 400% oversubscription. venturebeat.com. VentureBeat. Архів оригіналу за 7 грудня 2017. Процитовано 13 березня 2018.
  7. Economic Attention Allocation. Архів оригіналу за 13 жовтня 2011. Процитовано 26 грудня 2021.
  8. MOSES. Архів оригіналу за 26 серпня 2010. Процитовано 26 грудня 2021.
  9. Natural Language Generation. Архів оригіналу за 17 травня 2017. Процитовано 26 грудня 2021.
  10. OpenPsi. Архів оригіналу за 16 травня 2014. Процитовано 26 грудня 2021.
  11. Archived copy. Архів оригіналу за 19 березня 2018. Процитовано 24 квітня 2015.{{cite web}}: Обслуговування CS1: Сторінки з текстом «archived copy» як значення параметру title (посилання)
  12. Ben Goertzel (29 жовтня 2010). The Singularity Institute's Scary Idea (and Why I Don't Buy It). The Multiverse According to Ben. Архів оригіналу за 2 листопада 2010. Процитовано 24 червня 2011.
  13. Science Funder Jeffrey Epstein Launches Radical Emotional Software. Forbes. 2 жовтня 2013. Архів оригіналу за 2 жовтня 2013. Процитовано 26 грудня 2021.
  14. David Burden; Maggi Savin-Baden (24 січня 2019). Virtual Humans: Today and Tomorrow. CRC Press. ISBN 978-1-351-36526-0. Архів оригіналу за 30 квітня 2021. Процитовано 25 серпня 2020.
  15. Ben Goertzel; Cassio Pennachin; Nil Geisweiller (8 липня 2014). Engineering General Intelligence, Part 1: A Path to Advanced AGI via Embodied Learning and Cognitive Synergy. Springer. с. 23–. ISBN 978-94-6239-027-0. Архів оригіналу за 30 квітня 2021. Процитовано 26 грудня 2021.

Посилання[ред. | ред. код]