GitHub запускает Copilot Chat Ваш программирование друг в боковой панели! 😎🤖💬

Copilot Chat - функция совместной работы, входящая в состав передового инструмента по кодированию с искусственным интеллектом от GitHub, теперь доступна для всех разработчиков для задания вопросов о коде с использованием естественного языка.

GitHub представляет Copilot Chat – вашего программистского помощника на боковой панели

GitHub сделал Copilot Chat доступным для всех. Теперь разработчики могут задавать вопросы, связанные с программированием. Счастливого кодинга!

Что умеет Copilot Chat?

Как наиболее широко используемое инструментом искусственного интеллекта для разработчиков в истории, Copilot Chat основан на GPT-4, флагманской модели генеративного искусственного интеллекта от OpenAI, специально настроенной для сценариев разработки. Он интегрирован в среды разработки Microsoft – Visual Studio Code и Visual Studio и бесплатен для проверенных преподавателей, студентов и разработчиков определенных проектов с открытым исходным кодом.

Что ж, что может сделать Copilot Chat для вас? Разработчики могут полагаться на этого помощника по программированию, чтобы получать реальное время руководства, просто использовав естественный язык для задания вопросов. Например, вы можете попросить Copilot Chat объяснить концепции, обнаружить уязвимости или даже написать модульные тесты. Это как иметь своего собственного эксперта по кодированию прямо на боковой панели!

Использование по справедливому или неподобающее? 🤔⚖️

Однако использование моделей генеративного искусственного интеллекта, таких как Copilot, вызывает определенные опасения. Как и все модели искусственного интеллекта, GPT-4 был обучен на общедоступных данных, некоторые из которых могут быть защищены авторскими правами или лицензиями с ограничениями. Поставщики, такие как GitHub, утверждают, что принципы справедливого использования защищают их от претензий авторского права. Тем не менее, это не останавливает некоторых программистов от обращения в суд с исками группы против GitHub, Microsoft и OpenAI, в которых они заявляют о нарушении лицензий с открытым исходным кодом и интеллектуальной собственности.

Для учета обеспокоенности владельцев кодовой базы по поводу Copilot был задан вопрос, есть ли механизм отказа от обучающих данных. К сожалению, с широким запуском Copilot Chat, нового механизма для отказа от обучающих данных нет. Предлагаемым решением является создание частных репозиториев, чтобы предотвратить их включение в будущие наборы данных для обучения. Однако это предложение может не подойти владельцам кодовой базы, у которых есть свои причины для публичного размещения защищенного авторским правом кода. Остается открытым вопрос, будет ли GitHub предоставлять больше гибкости в отношении отказа от обучающих данных в будущем.

Остерегайтесь AI галлюцинаций! 👻

Генеративные модели искусственного интеллекта, включая GPT-4, имеют тенденцию “галлюцинировать” – то есть они могут с уверенностью генерировать неправильные или устаревшие фрагменты кода. Это представляет существенную проблему в области кодирования. Согласно недавнему исследованию Стэнфордского университета, разработчики, использующие помощников AI для написания кода, часто создают менее безопасный код по сравнению с теми, кто этого не делает. Это частично связано с тем, что помощники AI иногда вводят ошибочный или устаревший код.

Для решения этой проблемы Copilot Chat утверждает, что он более эффективно справляется с проявлениями галлюцинаций по сравнению со своим предшественником. Он предлагает функции по снижению риска эксплуатации, такие как фильтры для небезопасных шаблонов кода, который уведомляют пользователей о уязвимостях, таких как жестко закодированные учетные данные, SQL-инъекции и инъекции путей. Тем не менее, человеческий обзор предложенного AI-кода остается необходимым, чтобы гарантировать качество и безопасность кода.

Конкуренция Copilot и проблемы GitHub 🏆💼

С уже 1 миллионом платящих пользователей и около 37 000 предприятий, Copilot уже продемонстрировал свою популярность. Однако GitHub сталкивается с вызовом сделать Copilot прибыльным. По данным из Wall Street Journal, Copilot в настоящее время теряет в среднем $20 в месяц с каждого пользователя, и некоторые клиенты обходятся GitHub в $80 в месяц. Это в основном связано с высокой стоимостью работы с базовыми моделями искусственного интеллекта.

В то время как GitHub стремится сделать Copilot более привлекательным и финансово устойчивым, крупнейший его конкурент – Amazon – продолжает развивать CodeWhisperer, средство искусственного интеллекта для кодирования. Amazon сделал CodeWhisperer бесплатным для разработчиков ранее в этом году и предложил профессиональные и корпоративные варианты. Кроме того, Amazon недавно улучшил CodeWhisperer, чтобы предлагать улучшенные рекомендации для разработки приложений MongoDB.

Помимо CodeWhisperer от Amazon, Copilot также сталкивается с конкуренцией от стартапов, таких как Magic, Tabnine, Codegen и Laredo, а также от моделей с открытым исходным кодом, таких как Code Llama от Meta и StarCoder от Hugging Face и ServiceNow.

Будущее светло с Copilot Chat! 🔮✨

Не смотря на вызовы и конкуренцию, GitHub уверен в возможностях Copilot и его позиции в качестве ведущего инструмента разработчика на основе искусственного интеллекта. Вице-президент по продуктам GitHub, Шуйн Чжао, считает, что Copilot Chat, вместе с моделями OpenAI, позволяет разработчикам создавать лучшее, более безопасное программное обеспечение в больших масштабах. С дальнейшими усовершенствованиями и постоянным участием человека, Copilot Chat стремится перевернуть опыт написания кода и сделать его более приятным для разработчиков по всему миру.

Теперь, кто бы не хотел иметь дружелюбного помощника в кодировании в своей боковой панели? 🤖💬


Q&A:

Q: Всем пользователям GitHub доступен Copilot Chat?
Да, начиная с последнего объявления о его общедоступности, Copilot Chat теперь доступен всем пользователям GitHub.

Q: В каких IDE поддерживается Copilot Chat?
Copilot Chat интегрирован в среды разработки Microsoft – Visual Studio Code и Visual Studio.

Q: Могут ли владельцы кодовой базы отказаться от обучающих данных?
К сожалению, при текущем запуске Copilot Chat не предусмотрен новый механизм отказа от обучающих данных. Предлагается сделать репозитории приватными, чтобы они не попадали в будущие наборы данных для обучения.

Q: Как Copilot Chat обрабатывает неточности в сгенерированном коде?
Для снижения неточностей в сгенерированном коде Copilot Chat оснащен фильтрами для небезопасных шаблонов кода. Он оповещает пользователей о уязвимостях, таких как хардкодированные учетные данные, SQL-инъекции и инъекции пути. Однако, человеческий контроль над AI-предложенным кодом необходим для обеспечения качества и безопасности кода.


Ссылки на ресурсы:

  1. GitHub Copilot Chat
  2. Introducing GitHub Copilot for Teams
  3. OpenAI Releases ChatGPT Data Leak
  4. Bing’s New Deep Search Uses GPT-4
  5. WSJ Study Highlights Youth Exposure to Conflict Content on TikTok
  6. Лучшие приложения для путешествий 2023 года, по мнению Apple
  7. Kite AI CODING STARTUP
  8. Используйте ChatGPT для написания кода

Теперь, когда Copilot Chat от GitHub доступен для всех пользователей, обязательно попробуйте его и ощутите мощь помощника по кодированию на искусственном интеллекте! 😄 Поделитесь своими мыслями и приключениями с кодом в комментариях ниже. И не забудьте поделиться этой новостью в социальных сетях! Давайте привнесем помощь в кодировании на основе искусственного интеллекта разработчикам по всему миру! 🌍✨🚀