ИИ и вы Чатботы разговаривают друг с другом, ИИ помогает хирургам определить мозговые опухоли

Искусственный Интеллект и Чатботы ведут диалог, в результате которого ИИ помогает хирургам обнаружить мозговые опухоли.

Вернувшись после отпуска, на этой неделе я обнаружил полный почтовый ящик новостей о средствах искусственного интеллекта, проблемах, ошибках и приключениях. И вещью, которая привлекла внимание, было то, сколько инвестиций вложено в то, чтобы ИИ-чатботы притворялись кем-то другим.

В случае Meta генеральный директор Марк Цукерберг расширил список персонажей ИИ, с которыми более трех миллиардов пользователей технологического гиганта могут взаимодействовать на популярных платформах Meta, таких как Facebook, Instagram, Messenger и WhatsApp. Эти персонажи основаны на настоящих знаменитостях, спортсменах и художниках, включая музыканта Снуп Догга, известную личность Кайли Дженнер, бывшего квотербека Тома Брэди, звезду тенниса Наоми Осаку, другую известную личность Пэрис Хилтон и прославленную английскую писательницу Джейн Остин.

“Персонажи – это способ для людей развлечься, узнать что-то новое, поговорить о рецептах или просто скоротать время – все в контексте общения с друзьями и семьей”, – рассказали представители компании The New York Times о всех этих выдуманных друзьях, с которыми теперь можно беседовать.

Цукерберг сказал: “Людям не хочется взаимодействовать только с одним суперинтеллектуальным ИИ – они хотят общаться с разными”.

Но давайте не будем притворяться, что выдуманные друзья нужны только для того, чтобы помочь вам связываться с семьей и друзьями. Как мы знаем, тут речь идет о деньгах, и в настоящее время технологические компании находятся в поиске земли, которая в настоящее время противостоит Meta, а также другим гигантам ИИ, включая ChatGPT от OpenAI, Bing от Microsoft и Bard от Google. О Times тоже отметила: “Для Meta широкое признание его новых ИИ-продуктов может значительно увеличить участие в его множестве приложений, большинство из которых полагаются на рекламу для заработка денег. Больше времени, проведенного в приложениях Meta, означает больше рекламы, показанной пользователям”.

Чтобы быть уверенным, Meta не была первой, кто придумал идею создания персоналий или персонажей, чтобы придать чатботам искусственного интеллекта человеческое лицо (см. ELIZA, возникшую в конце 60-х годов.) И это подход, который, кажется, приносит плоды.

Двухлетний Character.ai, который позволяет вам взаимодействовать с чатботами на основе знаменитостей, таких как Тейлор Свифт и Альберт Эйнштейн, и вымышленных персонажей, таких как Марио от Nintendo, является одним из самых посещаемых ИИ-сайтов и, по данным Bloomberg, ищет финансирование, которое оценивает стоимость стартапа в 5-6 миллиардов долларов. В этой неделе Character.ai, который также позволяет создавать ваших собственных персонажей-чатботов, представил новую функцию для подписчиков, называемую Character Group Chat, которая позволяет вам и вашим друзьям общаться с несколькими ИИ-персонажами одновременно. (Вот ваш шанс добавить Свифт и Марио в свои групповые чаты.)

Но использование знаменитостей для продвижения ИИ забавно только в том случае, если эти люди в курсе – и это означает, что они получают деньги за свои ИИ-аватары. Ранее в этом месяце актер Том Хэнкс предупредил людей о зубной рекламе, в которой использовался его образ без его согласия. “Остерегайтесь!!” Хэнкс предупредил своих 9,5 миллиона подписчиков в Instagram. “Там есть видео, которое продвигает некий стоматологический план с версией ИИ меня. Я к этому не имею никакого отношения”.

Хэнкс в апрельском подкасте предвидел опасности, создаваемые ИИ. “Сейчас, если бы мне захотелось, я мог бы собраться и предложить серию из семи фильмов, в которых я бы сыграл и буду 32 года примерно до скончания века. Сейчас любой может создать свою копию в любом возрасте с помощью ИИ или технологии глубокой подделки … Я могу сказать вам, что вoвсех гильдиях, всех агентствах и всех юридических фирмах идут дискуссии о юридических последствиях использования моего лица и моего голоса – и голоса каждого другого – как нашей интеллектуальной собственности”.

Конечно, он был прав по поводу всех этих дискуссий. Американская гильдия сценаристов только что завершила забастовку сценаристов с Голливудом, достигнув соглашения о использовании искусственного интеллекта в кино и телевидении. Но актеры, представляющие САГ-АФТРА, все еще борются, и одной из преград является использование “цифровых копий.”

Ниже приведены другие события в области искусственного интеллекта, на которые стоит обратить внимание.

ChatGPT теперь может слышать и говорить – за деньги

OpenAI выпускает новые голосовые и изображенческие возможности в ChatGPT, позволяющие вам “вести разговор голосом или показывать ChatGPT, о чем вы говорите.” Новые возможности доступны людям, которые платят за использование чат-бота (ChatGPT Plus стоит 20 долларов в месяц.)

Компания говорит: “Сфотографируйте достопримечательность во время путешествия и ведите живой разговор о ее интересных особенностях. Когда вы дома, сделайте снимки своего холодильника и кладовки, чтобы определить, что приготовить на ужин (и задавайте уточняющие вопросы для шаг за шагом рецепта). После ужина помогите ребенку с математической задачей, сделав фотографию, обведя задачу и прослушав подсказки для обоих вас.”

И каково общаться с ChatGPT? Рецензент Wall Street Journal, Джоанна Штерн описывает это как что-то вроде фильма “Она”, в котором Хоакин Феникс влюбляется в искусственную операционную систему по имени Саманта, озвученную Скарлетт Йоханссон.

“Естественная речь, разговорный тон и красноречивые ответы иногда с трудом отличимы от этих же качеств у человека,” пишет Штерн. “Но вы определенно все еще общаетесь с машиной. Время ответа… может быть чрезвычайно медленным, и связь может оборваться – перезапуск приложения помогает. Несколько раз оно внезапно оборвало разговор (я думал, что только невежливые люди делают такое!)”

Невежливый искусственный интеллект? Может быть, все-таки чат-боты становятся более человечными. 

Прощай, фокус-группы из людей; здравствуйте, синтетические люди! 

Говоря о более похожих на людей искусственных интеллектах, компания под названием Fantasy создает “синтетических людей” для клиентов, включая Ford, Google, LG и Spotify, чтобы помочь им “узнавать о аудиториях, продумывать концепции продуктов и даже генерировать новые идеи,” сообщает ENBLE. 

“Fantasy использует технологию машинного обучения, которая питает такие чат-боты, как ChatGPT от OpenAI и Bard от Google, для создания своих синтетических людей,” по словам ENBLE. “Компания наделяет каждого агента десятками характеристик, извлеченных из этнографических исследований реальных людей, подавая их на коммерческие модели большого языка, такие как ChatGPT от OpenAI и Claude от Anthropic. Их агенты также могут быть настроены на знание существующих продуктовых линий или бизнеса, чтобы можно было вести разговор о предложениях клиента.”

Люди полностью не исключены из процесса. Fantasy сказала ENBLE, что для нефтяной и газовой компании BP они создали фокус-группы, состоящие как из живых людей, так и синтетических людей, и попросили их обсудить определенную тему или идею продукта. Результат? “Если человек может устать от ответов на вопросы или не захочет отвечать таким образом, синтетический человек может продолжать,” – сказал Роджер Рохатги, глава дизайна BP, журналу.

Так что, конечной целью может быть только разговор ботов друг с другом. Но есть одна проблема: обучение ИИ-персонажей – задача не из легких. ENBLE взял интервью у Майкла Бернштейна, профессора Стэнфордского университета, который помог создать сообщество чат-ботов под названием Smallville, и он его цитирует так: 

“Те, кто надеется использовать ИИ для моделирования реальных людей, должны помнить, что важно задаться вопросом о том, насколько точно языковые модели отражают реальное поведение. Персонажи, созданные таким образом, не такие сложные и умные, как реальные люди, и могут быть более стереотипными и менее разнообразными, чем информация, полученная из реальных популяций. Как сделать модели более точными в отражении действительности – это ‘открытый вопрос исследования'”, – говорит он.

Почему этика и доверие имеют значение

Deloitte обновила свой отчет о “Состоянии этики и доверия в технологии” на 2023 год, и вы можете скачать 53-страничный отчет здесь. Это стоит прочитать, хотя бы для напоминания о том, что разработка, развертывание и использование инструментов и систем искусственного интеллекта полностью зависят от нас, людей. 

TL;DR Делойт? Организации должны «разрабатывать надежные и этические принципы для новых технологий» и работать совместно с «другими компаниями, государственными органами и лидерами индустрии, чтобы создать единообразные, этически надежные регулирования для новых технологий».

А если они этого не сделают? Делойт перечисляет ущерб от этических ошибок, включая ущерб репутации, вред для людей и штрафы. Исследователь также обнаружил, что финансовый ущерб и неудовлетворенность сотрудников идут рука об руку. «Нечестное поведение или недостаток видимого внимания к этике может снизить способность компании привлекать и удерживать таланты. Одно исследование показало, что сотрудники компаний, совершивших этические нарушения, потеряли в среднем 50% накопленного за последующие десять лет дохода по сравнению с работниками других компаний».

Исследователь также обнаружил, что 56% профессионалов не уверены, имеют ли их компании этические руководства для использования искусственного интеллекта, согласно сводке результатов, предоставленной порталом ENBLE.

Работа на границе в хирургии головного мозга

Одной из проблем при удалении опухолей головного мозга для хирургов является определение, насколько вокруг границ опухоли им необходимо удалить, чтобы убрать все плохое. Это, мягко говоря, сложно, потому что им необходимо найти «тонкую грань между максимальной степенью резекции и минимизацией риска неврологических повреждений», согласно новому исследованию.

Этот отчет, опубликованный на этой неделе в журнале “Nature”, рассказывает о захватывающем прорыве в обнаружении опухолей благодаря нейронной сети искусственного интеллекта. Ученые из Нидерландов разработали глубокую систему обучения под названием “Sturgeon”, которая помогает хирургам найти эту тонкую грань, помогая получить подробный профиль опухоли во время операции.

Вы можете прочитать отчет в журнале Nature, но я поделюсь кратким обзором на понятном английском языке, предоставленным научным журналистом “New York Times” Бенджамином Мюллером: “Метод заключается в сканировании компьютером сегментов ДНК опухоли и выявлении определенных химических модификаций, которые могут дать подробное диагностическое представление о типе и даже подтипе опухоли головного мозга. Этот диагноз, полученный в ранних стадиях несколько часовой операции, может помочь хирургам решить, насколько агрессивно проводить операцию».

В тестах на замороженных образцах опухоли, полученных во время предыдущих операций по удалению рака головного мозга, “Sturgeon” точно диагностировал 45 из 50 случаев в течение 40 минут после начала секвенирования ДНК, сообщает “Times”. Затем он был протестирован во время 25 живых операций на мозге, большинство из которых проходили у детей, и дал 18 правильных диагнозов.

“Times” отмечает, что некоторые опухоли головного мозга сложно диагностировать, и что не все виды рака могут быть диагностированы на основе оценки химических модификаций нового метода искусственного интеллекта. Тем не менее, это вдохновляет увидеть, что возможно с новыми технологиями искусственного интеллекта по мере продолжения исследований.

Слово недели: Искусственный интеллект

Учитывая все вышесказанное о том, как искусственный интеллект используется для создания вымышленных версий реальных людей (не считая Супер Марио), слово, которое я выбираю на эту неделю, – это “антропоморфизм”, который означает приписывание объектам, не являющимся людьми, человекоподобных качеств. Но я уже писал об этом в издании AI и Вы от 19 августа.

Поэтому вместо этого я предлагаю определение “искусственного интеллекта“, предложенное Советом Европы:

Набор наук, теорий и методов, целью которых является воспроизведение машиной когнитивных способностей человека. Текущие достижения нацелены на возможность поручать машине выполнение сложных задач, ранее возлагавшихся на человека.

Однако термин “искусственный интеллект” критикуется экспертами, которые различают “сильный” ИИ (способный контекстуализировать совершенно разные специализированные проблемы полностью независимо) и “слабый” или “умеренный” ИИ (который выполняет свою работу в своей области обучения). По мнению некоторых экспертов, “сильный” искусственный интеллект потребует прогресса в основных исследованиях, чтобы смоделировать мир в целом, а не только улучшения в производительности существующих систем.

Для сравнения, вот цитата от Министерства иностранных дел США по национальному закону об искусственном интеллекте 2020 года:

Термин “искусственный интеллект” означает систему на основе машин, которая может, для заданного набора человекоопределенных целей, делать прогнозы, рекомендации или принимать решения, влияющие на реальные или виртуальные среды.

Примечание редактора: ENBLE использует искусственный интеллект для создания некоторых историй. Подробнее см. здесь.