Чат боты как пробный, коммуникационный, шар ии на пути...

Post on 06-Apr-2017

170 Views

Category:

Technology

2 Downloads

Preview:

Click to see full reader

TRANSCRIPT

ЧАТ БОТЫ КАК ПРОБНЫЙ, КОММУНИКАЦИОННЫЙ, ШАГ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА НА ПУТИ К КИБЕРНЕТИЧЕСКОМУ СВЕРХИНТЕЛЛЕКТУ

КТО ВЛАДЕЕТ ДАННЫМИ ТОТ ВЛАДЕЕТ МИРОМ

ИСТОЧНИКИ ДАННЫХ В СОВРЕМЕННОМ ЦИФРОВОМ МИРЕ▪ Компьютеры, смартфоны и планшеты ( Windows, Android, IOS, Linux)

▪ Умный дом и устройства с доступом в интернет

▪ Пользователи и их контент (почта,соц. cети, блоги, сайты, e-Commerce и тд.))

▪ Бесплатные хостинги и хранилища данных

▪ BigData, Smart Data, машинное обучение

▪ «Добровольцы» для обучения «младенца» ИИЧУ в игровой форме (чат боты, голосовые ассистенты)

А ЧТО ПОД КАПОТОМ У ИСКУССТВЕННОГО ИНТЕЛЛЕКТА?

ВЫШЕ, БЫСТРЕЕ, СИЛЬНЕЕ!!!

НАПРАВЛЕННОСТЬ ИИ НА РЕШЕНИИ УЗКОСПЕЦИАЛИЗИРОВАННЫХ ЗАДАЧ

АВТОНОМНЫЕ РОБОТИЗИРОВАННЫЕ СИСТЕМЫ С ВОЗМОЖНОСТЬЮ ПРИНЯТИЯ РЕШЕНИИ

ОГРАНИЧЕННОСТЬ ИНТЕРФЕЙСА ВЗАИМОДЕЙСТВИЯ Ч2М (ВВОД ПАЛЬЦАМИ, ГОЛОС)

КАК ПОНЯТЬ ЧТО ПЕРЕД НАМИ ИИЧУ?

ВИЗУАЛЬНЫЙ ТЕСТ ТЬЮРИНГА

▪ Машине показывают картинку и спрашивают, например, где на ней находится чашка, — и дают несколько вариантов ответа. Все варианты ответов правильные (на столе, на подстилке, перед стулом, слева от лампы), но некоторые из них могут быть более человеческими, чем другие (скажем, из всего перечисленного человек скорее ответит «на столе»). Кажется, что это простое задание, но на самом деле способность описать, где находится объект по отношению к другим объектам — важнейший элемент человеческого разума. Здесь играют роль множество нюансов и субъективных суждений, от размера объектов до их роли в конкретной ситуации — в общем, контекст. Люди проделывают это интуитивно, а машины сталкиваются с проблемами.

Проверяет визуальные способности машины, то есть может ли она «видеть», как человек.

ТЕСТ ЛАВЛЕЙС 2.0

▪ В прошлом году профессор Марк Рейдел из Технологического института Джорджии обновил тест, чтобы сделать его менее субъективным. Теперь машина должна создать произведение в определённом жанре и в определённых творческих рамках, заданных человеком-судьёй. Проще говоря, это должно быть произведение искусства в конкретном стиле. Скажем, судья может попросить машину нарисовать маньеристскую картину в духе Пармиджанино или написать джазовое произведение в духе Майлза Дэвиса. В отличие от оригинального теста, машины работают в заданных рамках, и поэтому судьи могут оценивать результат более объективно.

Призван определить наличие интеллекта у машины через способность её к творчеству

СХЕМЫ ВИНОГРАДА

▪ Пример вопроса: «Трофей не влезал в коричневый чемодан, потому что он был слишком маленьким (большим). Что было слишком маленьким (большим)?». Если в вопросе используется слово «маленьким», то ответ — трофей, если «большим» — то чемодан. Эрнест Дэвис, коллега Левеска, работавший с ним над исследованием, опубликовал целую библиотеку вопросов, которые могут быть использованы в таком тесте. Чтобы ответить правильно, нужно обладать навыками, которые до сих пор недоступны компьютерам: например, уметь представлять пространство, отношения между людьми, размер объектов, даже нюансы политики — всё зависит от конкретных вопросов.

Проходя этот тест, машина отвечает на вопросы с двумя вариантами ответа.

ТЕСТ МАРКУСА▪ Маркус предлагает построить

компьютерную программу, которая смогла бы смотреть телевизионные шоу и видео на YouTube и отвечать на вопросы по их содержанию — ну, скажем, почему Джоффри Баратеон приказал казнить Эддарда Старка. Но это не так трудно. Тест Маркуса заключается в другом: включите такой программе эпизод «Симпсонов» и пусть она объяснит, в каких местах следует смеяться. Если компьютер может определить и понять юмор, сарказм и иронию — и даже объяснить их — значит, он максимально приблизился к интеллекту, а может и обладает им.

Учёный-когнитивист Гэри Маркус — активный критик теста Тьюринга в его нынешнем виде.

ДЛЯ САМОСТОЯТЕЛЬНОГО ИЗУЧЕНИЯ.

23 ПРИНЦИПА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА, ОДОБРЕННЫЕ СТИВЕНОМ ХОКИНГОМ И ИЛОНОМ МАСКОМ▪ 1. Цель исследований. Целью исследований в области искусственного интеллекта должно

быть создание не неориентированного, а полезного интеллекта.

▪ 2. Финансирование исследований. Инвестиции в ИИ должны сопровождаться финансированием исследований, которые удостоверят его полезное использование, включая острые вопросы в области компьютерных наук, экономики, права, этики и социальных наук, таких как:

▪ Как мы можем сделать будущие ИИ-системы высоконадежными, чтобы они делали то, что хотим мы без сбоев или возможностей для взлома?

▪ Как мы можем двигаться к процветанию через автоматизацию при этом сохраняя человеческие ресурсы и цели?

▪ Как мы можем обновить нашу юридическую систему, чтобы она была более честной и эффективной, соответствовала скорости развития ИИ и управляла рисками, связанными с ним?

▪ Какой набор ценностей должен включать в себя ИИ и какой юридический и этический статус он должен иметь?

23 ПРИНЦИПА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

▪ 3. Связь «наука-политика». Должно существовать конструктивное и здоровое взаимодействие между исследователями ИИ и политиками.

▪ 4. Культура исследований. Среди исследователей и разработчиков ИИ должна поддерживаться культура сотрудничества, доверия и прозрачности.

▪ 5. Избежание гонки. Команды, разрабатывающие системы ИИ, должны активно сотрудничать и не «срезать углы» в вопросах безопасности.

▪ 6. Безопасность. Системы искусственного интеллекта должны быть безопасны и защищены на протяжении всего срока эксплуатации. Они также должны быть проверяемы по этим аспектам там, где это применимо и выполнимо.

▪ 7. Прозрачность ошибок. Если система ИИ нанесет вред, должно быть возможно установить причину произошедшего.

23 ПРИНЦИПА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

▪ 8. Судебная прозрачность. Любое использование автономной системы для принятия судебных решений должно сопровождаться удовлетворительным объяснением, которое способно проверить компетентное человеческое учреждение.

▪ 9. Ответственность. Разработчики и создатели продвинутых систем ИИ являются стейкхолдерами моральных последствий, не добропорядочного использования и других действий, с ответственностью и возможностью формировать эти последствия.

▪ 10. Согласование ценностей. Высокоавтономные системы ИИ должны проектироваться так, чтобы их цели и поведение согласовывались с человеческими ценностями во всех аспектах их работы.

▪ 11. Человеческие ценности. Системы ИИ должны проектироваться и управляться так, чтобы быть совместимыми с идеалами человеческого достоинства, прав, свобод и культурного разнообразия.

▪ 12. Личная приватность. Люди должны иметь право доступа, управления и контроля данных, которые они генерируют, давая системам ИИ возможность анализировать и использовать эти данные.

23 ПРИНЦИПА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

▪ 13. Свобода и приватность. Применение ИИ к личным данным не должны необоснованно ограничивать реальную или воспринимаемую свободу людей.

▪ 14. Общая выгода. Технологии искусственного интеллекта должны приносить пользу и расширять возможности максимально возможного количества людей.

▪ 15. Общее процветание. Экономическое процветание, созданное ИИ, должно широко распределяться, чтобы все человечество получало выгоду.

▪ 16. Человеческий контроль. Люди должны выбирать как и нужно ли делегировать решения системам ИИ, чтобы достичь выбранных людьми целей.

▪ 17. Отсутствие подрывной деятельности. Власть, получаемая с помощью контроля высокоразвитых систем ИИ должна уважать и улучшать, а не подрывать, социальные и гражданские процессы, от которых зависит здоровье общества.

▪ 18. Гонка ИИ-вооружений. Гонки вооружений в сфере летального автономного оружия необходимо избежать

23 ПРИНЦИПА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА

▪ 19. Осторожное отношение к возможностям. Если не найден общий консенсус, мы должны избегать сильных допущений относительно верхних границ будущих возможностей искусственного интеллекта.

▪ 20. Важность. Продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле и должен планироваться и управляться с соответствующим вниманием и ресурсами.

▪ 21. Риски. Риски, связанные с системами ИИ, особенно катастрофические и экзистенциальные риски, должны быть предметом планирования и усилий по предотвращению соизмеримо с ожидаемым от них влиянием.

▪ 22. Рекурсивное самоулучшение. Системы ИИ спроектированные для рекурсивного самоулучшения или самовоспроизведения так, что это может привести к быстрому росту качества или количества, должны быть предметом строгих мер безопасности и контроля.

▪ 23. Общее благо. Сильный искусственный интеллект должен разрабатываться только во имя служения широко разделяемым этическим идеалам и во благо всего человечества, а не одного государства или организации.

SERGEY SKABELKINEXPERT OF FINTECH

+380996062336SSKABELKIN@GMAIL.COM

HTTPS://WWW.FACEBOOK.COM/SERGEYSKABELKIN

top related