OpenAI поделилась первым взглядом на новый инструмент, который мгновенно генерирует видео из простой строки текста.
Инструмент OpenAI, получивший название Sora от японского слова «небо», знаменует собой последний шаг вперед компании, занимающейся искусственным интеллектом, поскольку Google, Meta и стартап Runway ML работают над аналогичными моделями.
Компания, создавшая ChatGPT, заявила, что модель Соры понимает, как объекты «существуют в физическом мире», и может «точно интерпретировать реквизит и создавать убедительных персонажей, выражающих яркие эмоции».
В примерах, размещенных на своем сайте, OpenAI продемонстрировала ряд видеороликов, созданных Сорой «без изменений». В одном клипе изображена фотореалистичная женщина, идущая по дождливой улице Токио.
В подсказках говорилось, что она «ходит уверенно и небрежно», что «улица влажная и отражающая свет, создавая зеркальный эффект разноцветных огней» и что «по ней ходит много пешеходов».
Другой, с быстрым приближением «несколько гигантских шерстистых мамонтов, шагающих по заснеженному лугу», показал вымерших животных возле горного хребта, поднимающих на ходу снег.
В одном видео, созданном искусственным интеллектом, также был показан далматинец, прогуливающийся по подоконникам в Бурано, Италия, а в другом — «экскурсия по художественной галерее, где представлено множество прекрасных произведений искусства в разных стилях».
Проблемы авторского права и конфиденциальности
Но новейший инструмент OpenAI был встречен со скептицизмом и опасениями, что его можно использовать не по назначению.
Рэйчел Тобак, член технического консультативного совета Агентства кибербезопасности и безопасности инфраструктуры США (CISA), написала на X, что «нам нужно обсудить риски» модели ИИ.
«Меня больше всего беспокоит то, как этот контент может быть использован для обмана, манипулирования, фишинга и запутывания широкой публики», — сказала она.
Отсутствие прозрачности
Другие также выразили обеспокоенность по поводу авторских прав и конфиденциальности, а генеральный директор некоммерческой ИИ-фирмы Pretty Educated Эд Ньютон-Рекс добавил: «Вы просто не можете утверждать, что эти модели не конкурируют или не будут конкурировать с контентом, на котором они обучаются. и создатели этого контента.
«На чем обучается модель? Дали ли поставщики обучающих данных согласие на использование их работы? Полное отсутствие информации от OpenAI по этому поводу не внушает доверия».
Читать далее: Фейковый Байден, созданный искусственным интеллектом, призывает людей не голосоватьСадик Хан: Дипфейк едва не вызвал «серьезный беспорядок»
OpenAI сообщила в своем блоге, что сотрудничает с художниками, политиками и другими людьми, чтобы обеспечить безопасность, прежде чем выпустить новый инструмент для широкой публики.
«Мы работаем с красными командами — экспертами в таких областях, как дезинформация, разжигающий ненависть контент и предвзятость, — которые будут состязательно тестировать модель», — заявили в компании.
«Мы также создаем инструменты, помогающие обнаруживать вводящий в заблуждение контент, например классификатор обнаружения, который может определить, когда видео было создано Sora».
OpenAI «не может предсказать» использование Sora
Однако фирма признала, что, несмотря на обширные исследования и испытания, «мы не можем предсказать все выгоды, которыми люди будут пользоваться нашей технологией, и все способы, которыми люди будут ею злоупотреблять».
«Вот почему мы считаем, что обучение на основе практического использования является важнейшим компонентом создания и выпуска все более безопасных систем искусственного интеллекта с течением времени», — добавили они.
The New York Instances подала в суд на OpenAI в конце прошлого года из-за обвинений в том, что она и ее крупнейший инвестор Microsoft незаконно использовали статьи газеты для обучения и создания ChatGPT.
В иске утверждается, что текстовая модель ИИ теперь конкурирует с газетой как источник достоверной информации и ставит под угрозу способность организации предоставлять такую услугу.
В День святого Валентина OpenAI также сообщила, что закрыла учетные записи пяти связанных с государством групп, которые использовали большие языковые модели компании, чтобы заложить основу для хакерских кампаний.
Они заявили, что группы угроз, связанные с Россией, Ираном, Северной Кореей и Китаем, использовали инструменты фирмы для предварительных хакерских задач, таких как запросы с открытым исходным кодом, перевод, поиск ошибок в коде и выполнение основных задач по кодированию.