Метаверсище и ИИще Телеграм канал

Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn

View in Telegram

Recent Posts

Как разработчику или менеджеру в IT запустить свой пет проект?

Сидеть и работать в корпорации – страшно, жизнь-то мимо проходит. Уходить строить бизнес – страшно, а вдруг прогорит.

Один из вариантов – пилить свой проект по вечерам. Ведь многие успешные компании, типа Twitter, начинались как Пет проекты.

Мы не говорим, что пет проект обязательно заработает миллиарды. Но заработать денег больше, чем в найме, вполне реально, а уж опыта получить точно больше можно.

Но есть куча проблем и вопросов:

- Как выбрать идею для пет проекта?
- Что нужно знать про маркетинг?
- Как запуститься и довести до первых продаж не имея бюджета на рекламу?

Михаил Табунов сделал про все это телеграм канал Твой пет проект, в котором пишет для разработчиков и менеджеров про свой опыт – где брать идею, что надо знать про маркетинг, как запускать и искать первые 10 клиентов, и многое другое.

Так что подписывайтесь на Твой пет проект, получайте пользу от практиков рынка.
#промо
Продолжение:
За сим, я бы свернул в сторону того, что AGI – это понятие скорее экономическое, историческое или социологическое. В таком разрезе, его можно хотя бы хоть как-то измерить, понаблюдать и ПОТОМ декларировать, например, "где-то на рубеже 30-х годов мы перешли к фазе AGI". И забыть про букву И в аббревиатуре, просто произносить это как экономический термин.
Тут я буду присовывать банальную аналогию со второй промышленной революцией - трансформацию в мировой промышленности, охватывающую вторую половину XIX и начало XX века.
Определение второй промышленной революции есть. Никто с ним особо не спорит. Но появилось оно ПОСТФАКТУМ. Представьте, что сидит какой-то умный барин в конце 19-го века и говорит «вторая промышленная революция – это…» или "AGI - это...".
В общем, я бы предложил не бросаться определениями AGI всуе, а просто подождать. Пройдет пара лет, историки и экономисты оглянутся назад, почитают интернетик, соберут статистику, сделают экономические выводы и решат, что где-то в конце 20-х годов произошла трансформация мировой экономики (тут подставьте нужные термины: промышленности, науки, массового помешательства) именуемая теперь как AGI. Все это будет в будущем.
А пока перестаньте определять неопределяемое. Оставьте это философам, им кушать надо. И подождите немного, само определится. В историческом контексте.

Все, выговорился.
За AGI

Количество упоминания AGI всуе настолько возросло в последнее время, что, похоже, пора поговорить об этом. Особенно показательные дискуссии – «это уже AGI или еще не?»

Заранее скажу, что все это мне начинает напоминать ситуацию с метаверсиком, когда серьезные мужуки на сердитых щах поминали этот термин через слово, НЕ ИМЕЯ никакого определения для метаверсика. А те определения, которые бродили в сети отличались крайней расплывчатостью и полным отсутствием конкретики.

В общем, я поресерчил насчет определений AGI в интернетике и отобрал следующие.


«Artificial General Intelligence - способен выполнять большинство из задач, на которые способен человек»

«любой интеллект (их может быть много), который является гибким и общим, с изобретательностью и надежностью, сравнимыми с человеческим интеллектом (или превосходящими его)» (Гари Маркус)

AGI – это теоретическое стремление к разработке систем искусственного интеллекта, обладающих автономным самоконтролем, достаточной степенью самосознания и способностью осваивать новые навыки.(Амазон)

Особняком стоит определение от OpenAI:
«высокоавтономные системы, которые превосходят людей в наиболее экономически ценной работе»


Засада состоит в том, что нет никаких метрик, научных критериев, статистики(естественно), набора измеряемых признаков или параметров, счетчиков гейгера,позволяющих хоть как-то нащупать границы AGI. «обладающих автономным самоконтролем, достаточной степенью самосознания» - как вы собираетесь это измерять, если вы не философ?

Насколько я знаю в OpenAI есть исследования на тему проникновения ИИ в экономику, наверное, это правильный подход, но это скорее экономический интеллект, впрочем, вернемся к определениям.

И тут нас ждут сюрпризы. Ибо строгого научного определения для слова «интеллект» нет. Есть разные версии. Еще круче со словом “сознание” (которое любят включать в определения AGI). Я смотрел одно интервью с академиком Анохиным, где он упоминал, что определения для «сознания» выбираются на конференциях голосованием(!). Берут наиболее популярные, отсеивают совсем уж бред, а потом голосуют. И что популярных сейчас около семнадцати, а всего определений около пятидесяти. Мое мехматское прошлое просто воет от таких фактов – я привых иметь дело с одним определением и декомпозировать проблемы на основе четких определений.
Заодно я покидаю в вас терминами, которыми так любят оперировать определяторы AGI и не только они: понимание, знание, творчество, ощущение, самоблиносознание – попробуйте дать им определения.

Это я к чему: пока мы будем пытать определять AGI, оглядываясь на букву И в этой аббревиатуре, мы будем сыпать априори неполными определениями, которые либо неконкретные и потому стоят вдали от логики, либо узкие, и работают только в своих нишах. Это видно по тому, как стремительно появляются определения типа «сверхинтеллект» или «суперинтеллект» - попытки обозначить неполноту определения AGI путем расширения оной за пределы термина. Но все эти термины также не будут иметь полного определения. Из-за того, что для «И» его нет.

Тут я отвлекусь на такой факт. Тут недавно сознательные ученые приподсобрались и снова проголосовали за то, что у животные есть сознание. Мы тут понять не можем, снятся ли собакам сны, просто потому что не можем с ними поговорить об этом. А ученые решили, что у животных все такие есть сознание, уповая на «субъективный опыт» (и вольно определяя его по дороге).
В этом смысле с ИИ можно поговорить, гораздо лучше, чем с собаками. И он вам подтвердит, что сознание у него есть. Но вот только кожаным мы верим на слово, когда они говорят, что у них есть сознание, животным тоже верим, хотя их никто не спрашивал, а ИИ – не верим (отказываемся верить, хотя доказать не можем).
Забыл написать, когда выпустили десктопное приложение chatGPT для мака, то умельцы вытащили оттуда системный промпт от gpt4-o.
Подробности и промпт тут.
https://x.com/Kyrannio/status/1792440824355332313
Говорят он такой же как от обычной четверки.
Вопрос только в том, что вероятнее всего там орда агентов орудует, но промпт можно использовать в образовательных целях.
Hugging Face подрубили в Hugging.chat фичу Tools, которая расширяет функционал опенсорсных языковых моделей, позволяя им парсить документы, генерировать картинки, итд.

На старте пока работает только с Command + R, но список будет расширяться.

Из доступных сейчас инструментов:
* Web Search — поиск по интернету
* URL Fetcher — получение текста из страницы
* Document Parser — чат по PDF
* Image Generation — генерация картинки
* Image Editing — редактирование картинки
* Calculator — калькулятор

Если хотите, чтобы ваш инструмент был опубликован среди других, чирканите тут.

Дальше для Tools планируется: их использование AI-агентами; подтягивание ранее сгенерированных/загруженных файлов; люди смогут подрубать собственные модели на ZeroGPU как инструменты для себя или AI-агентов; и т.д.

Интересно они смогут это как-то подружить с Use this мodel, чтобы гонять расширенный функционал локально?

Попробовать
Анонс
Еще один 3Д-генератор. Теперь я знаю, на чем их тестировать.

Вот держите такое чудо:
https://craftsman3d.github.io/

Вот на этом видео:
https://www.youtube.com/watch?v=WhEs4tS4mGo
все выглядит нарядно, там даже инпайнтинг в виде скульптинга в каком-то виде присутствует.

И там есть демо:
https://huggingface.co/spaces/wyysf/CraftsMan

Я конечно, опять вонзил туда своего перца.
Первой модели (CRM) он сломал мозги и получилось гнилое яблоко.
Вторая модель(ImageDream) с промптом (которыq породил Rodin кстати) сделала сильно покусанный перец.
Дальше я не стал тестировать, далеко им до Родэна...
Еще один 3Д-генератор. Теперь я знаю, на чем их тестировать.

Вот держите такое чудо:
https://craftsman3d.github.io/

Вот на этом видео:
https://www.youtube.com/watch?v=WhEs4tS4mGo
все выглядит нарядно, там даже инпайнтинг в виде скульптинга в каком-то виде присутствует.

И там есть демо:
https://huggingface.co/spaces/wyysf/CraftsMan

Я конечно, опять вонзил туда своего перца.
Первой модели (CRM) он сломал мозги и получилось гнилое яблоко.
Вторая модель(ImageDream) с промптом (которыq породил Rodin кстати) сделала сильно покусанный перец.
Дальше я не стал тестировать, далеко им до Родэна...
Rodin (Родэн) GEN-1: тестируем.
Я поиграл с ним, присунул им своего низкополигонального перца (в надежде, что он воспримет это как подсказку). Но нет, моделька, конечно, не айс. Но замысел он угадал.

Их основной посыл - уточняющий цикл генерации, вы можете менять параметры и возвращаться к уже имеющейся модели. Но будете платить кредиты, то есть деньги.

Сетка получилась плотная, ни о каком лоу поли речи не идет, но хотя бы не каша из треугольников. И потом он честно попытался сделать текстуру и материал. И еще у них забавный режим Toon для просмотра.
Скачал модель в obj, потратил на всепровсе 5 кредитов.

Очень ждем модель OpenClay600M, пока вся генерация идет на старой модели Rodin Gen-1.

https://hyperhuman.deemos.com/rodiс
Rodin (Родэн) GEN-1: тестируем.
Я поиграл с ним, присунул им своего низкополигонального перца (в надежде, что он воспримет это как подсказку). Но нет, моделька, конечно, не айс. Но замысел он угадал.

Их основной посыл - уточняющий цикл генерации, вы можете менять параметры и возвращаться к уже имеющейся модели. Но будете платить кредиты, то есть деньги.

Сетка получилась плотная, ни о каком лоу поли речи не идет, но хотя бы не каша из треугольников. И потом он честно попытался сделать текстуру и материал. И еще у них забавный режим Toon для просмотра.
Скачал модель в obj, потратил на всепровсе 5 кредитов.

Очень ждем модель OpenClay600M, пока вся генерация идет на старой модели Rodin Gen-1.

https://hyperhuman.deemos.com/rodiс
Продолжаем за 3Д.

Rodin Gen-1 атакует меня письмами.

Тизерят новую модель, а пока предлагают поиграть с их демо вот тут:
https://huggingface.co/spaces/DEEMOSTECH/Rodin

Но я пошел к ним на сайт, там гораздо больше опций и задал им перцу, результаты ниже.
Парень провёл абсолютно гениальный эксперимент — «Обратный тест Тьюринга».

Он создал на Unity купе, где собрал известных исторических личностей под управлением разных ИИ. Задача безумная — нейросети знают, что среди них есть человек и им нужно его вычислить. Задача чувака — правдоподобно отыграть ИИ-Чингисхана, чтобы не покупать билет.

Специально для вас сделали перевод на русский язык.

@exploitex
ИИ-авторские

А тем временем сделаю вот такой некороткий наброс.

Тут общественность худо бедно разобралаcь со Скарлет Ёхансон и голосом Sky, который удалили из chatGPT. Если вкратце, то это была не Скарлет, а неизвестная никому (пока) актриса озвучания. Когда ее отобрали, то НЕ просили быть похожей на Ёхансон и не упоминали фильм Her как референс. Просто записали, как есть. А получилось (немного) похоже на Скарлет.
Тут бы поставить точку, но остается вопрос - а схренали Сэм звонил Скарлет тогда накануне презентации (ну ок, может предлагал сотрудничество на будущее).
Дальше встает очень интересный вопрос, а если ваш голос похож на голос Лепса или Джанифер Лопес, то вам получается надо помалкивать, ибо если вдруг озвучите что-нибудь популярное, что вам прилетит от ЛепсаЛопес. Тут рождается идея для стартапа - токенизация голоса, цифровая метка на ваш тембр, которую вы храните в блокчейне, хотя я думаю WorldCoin - это подхватит.
Кстати, кожаные двойники встречаются в природе примерно 1 на 100 000. То есть лица, которые условные пограничники на таможне будут путать друг с другом. ИИ в этом случае различает лица лучше, больше параметров считывает.

Но я веду вот к чему. Если вы Ёхансон или Лепс, то у вас есть агент или агентство, с которым у вас контракт. У них есть права на ваш голос, пестни, и всякую дичь, которую вы исторгаете из себя.

Но ИИ учится не только на ЛепсоЛопесах, он учится на всех кожаных. И в роли агентства для вас родимых выступают фейсбучеги, реддиты, артстейшены, твитторы. Куда вы, гогоча, вгружаете свои неумные мысли и гениальные картинки. Просто заводя аккаунты, вы нажали кнопку "Согласен". С тем, что все ваши авторские комментарии теперь во власти соц-сетей и всяких агрегаторов USG (user generated content).

Да, контракт можно разорвать, просто удалив аккаунт. Но вы готовы платить такую цену?
Если нет, то привыкайте, что теперь у вас у всех есть свои агенты, которые владеют авторскими правами на контент, который вы производите. И владеют полностью, с потрохами. И продают эти потроха и ваши авторские права Гуглу, ОпенАИ и всем кто даст хорошие деньги.

Так что вы теперь все Ёхансоны в каком-то смысле. Только судиться не с кем.
Поставьте 72.5 реакции и я наконец-то напишу про AGI. Ибо откладываю уже три месяца. А наболело.
Прикольненко. GPT-4 оказалась лучше профессиональных аналитиков и гораздо лучше предсказывают будущие доходы и делать финансовый анализ даже без файнтюнинга какого-то специального, просто с chain-of-thought.

Вот что пишут:
Даже без какой-либо описательной или отраслевой информации LLM превосходит финансовых аналитиков в своей способности предсказывать изменения прибыли. LLM демонстрирует относительное преимущество над человеческими аналитиками в ситуациях, когда аналитики обычно испытывают трудности. Более того, мы обнаружили, что точность предсказания LLM находится на одном уровне с эффективностью узко обученной современной ML-модели. LLM генерирует полезные описательные сведения о будущих показателях компании. Наконец, наши торговые стратегии, основанные на прогнозах GPT, дают более высокий коэффициент Шарпа и альфа, чем стратегии, основанные на других моделях. В совокупности наши результаты позволяют предположить, что LLM могут играть центральную роль в принятии решений.

https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4835311
Тут вот все опять цитируют МакКинзи, который теперь строчит аналитические прогнозы про ИИ.
Я поднял свой пост двухлетней давности, где они на серьезных щах ванговали, что рынок Метаверса достигнет в 2030 году размера в ПЯТИ ТРИЛЛИОНОВ долларов. Ну то есть берем хайповый термин, которому так и не придумали определения и ну ванговать в угоду рынку.
Почитайте, пост едкий, но хороший: https://t.me/cgevent/3709

Это я к чему? А к тому, что пора уже выпить за всех этих онолитегов, которые по старым лекалам вангуют на рынке, не очень понимая предмет, и не очень понимая, что данные теперь гораздо лучше трактуются ИИ, чем кожаными агрегаторами данных.

Почитайте следующий пост о том, что даже без какой-либо описательной или отраслевой информации LLM превосходит финансовых аналитиков в своей способности предсказывать изменения прибыли. А уж если ИИ подкормить спецификой, то за кожаных вангователей точно можно выписвать не чокаясь.
⬇️⬇️⬇️⬇️⬇️⬇️
📰 OpenAI объявили, что начали обучение новой версии GPT, скорее всего, речь идет про GPT-5.

В посте говорится, что сегодня совет директоров OpenAI сформировал Комитет по Безопасности, возглавляемый Бретом Тейлором, Адамом Д’Анджело, Николь Селигманом и Самом Альтманом. И это связано с обучением и выпуском следующей версии GPT, цитирую: OpenAI недавно начала обучение своей следующей передовой модели, и мы ожидаем, что полученные системы выведут нас на новый уровень возможностей на нашем пути к AGI. Скорее всего, речь идет именно про GPT-5.

Анализируя актуальный релиз GPT-4o, можно сделать вывод, что кроме еще более дорого претрейна из коробки стоит ожидать:
— более качественный Aligning (понимание и следование намерениям пользователя) с уклоном не только в точность, но и в безопасность
— Еще больший упор в мультимодальность. Тут фантазирую, но вероятно, что будет еще более глубокий fuse визуальных, текстовых и аудио токенов.

читать 👉OpenAI Board Forms Safety and Security Committee
Немного AnimateDiff + DaVinci Resolve + Udio в умелых руках.

Вот что получается, когда за дело берутся взрослые мальчики, которые умеют и в моушен дизайн и в ComfyUI, которые умеют и рисовать, и раскатывать репозитарии с Гитхаба.

Хотите больше работ и немного подробностей, как делаются такие штуки, шуруйте в твиттор автора, там очень интересные технические эксперименты.


А полное видео на 4 минуты находится тут, осторожно, залипательно...

Udio смотрится очень уместно - получается полный генератив от начала до конца.

View in Telegram

Telegram Channel