CE Tables Maker

Группа тех, кто создает таблицы CE

Сообщения

  • Cursor AI — IDE для ИИ агентного программирования

    Cursor AI — практический опыт и выводы

    Cursor AI — это IDE на базе Visual Studio Code, ориентированная на программирование с использованием ИИ. Это не единственное решение на рынке — аналогов сегодня достаточно много.

    На практике мне удалось поработать с разными агентами и инструментами:

    • Cursor AI
    • Cline
    • GitHub Copilot
    • различные LLM-провайдеры
    • локальный LLM-сервер (по возможностям — довольно слабый)

    ---

    Общие впечатления

    В целом Cursor AI — мощный инструмент. Всё, что было запланировано, удавалось реализовывать поэтапно и достаточно аккуратно.

    Ключевой момент — почувствовать, как правильно “вести LLM” к нужному результату. Когда это получается, эффективность становится заметно выше.

    При этом важно понимать:

    • code review после работы LLM обязателен
    • поверхностные правки почти всегда нужны
    • это касается и inline-команд ИИ

    ИИ сильно ускоряет работу, но не отменяет ответственность разработчика.

    ---

    Unity3D + C#

    Я очень рекомендую Cursor AI для программирования под Unity3D и C#.

    С высокой вероятностью вы не пожалеете. Более того, не использовать Cursor AI или аналогичные инструменты сегодня — потенциальная ошибка. Работая с ними, действительно можно многому научиться.

    В отличие от классического общения с ИИ через чат:

    • агент часто сам быстро вносит правки в код
    • меньше ручного копирования и вставки
    • быстрее итерации

    Программировать можно практически всё — вплоть до CE Lua-плагинов, которыми я планирую заняться в ближайшее время и выложить новую версию. Пока они находятся на стадии тестирования.

    ---

    Стоимость и порог входа

    Да, всё это не бесплатно, но в большинстве случаев оно того стоит.

    Если вы ещё не пробовали:

    • просто попробуйте
    • даже безлимитного тарифа на первое время достаточно
    • этого хватит, чтобы понять, подходит ли инструмент под ваш workflow

    ---

    Куда всё движется

    В перспективе привычные чаты в стиле ChatGPT, в том виде, в каком мы их знаем сейчас, будут всё менее интересны.

    Настоящий прирост эффективности дают:

    • ИИ-агенты
    • оркестрация
    • MCP-серверы

    Простой пример:
    тысяча правок через чат с постоянным копированием и вставкой
    vs
    тысяча правок, где агент сам вносит изменения в код

    Разница в эффективности — колоссальная.

    ---

    Итог

    Каждому разработчику в итоге придётся:

    • выстраивать собственный workflow
    • адаптироваться к ценам и инструментам
    • выбирать оптимальные модели и подходы

    Цель одна — максимальная производительность при минимальных затратах времени и ресурсов.

    ---

    Ниже — сравнительная таблица, оформленная в Markdown для NodeBB. Я опирался на практический опыт пользователей и типовые сценарии Unity/C#-разработки, без маркетинговых искажений.

    ---

    Сравнение инструментов: Cursor AI / GitHub Copilot / Cline

    Критерий Cursor AI GitHub Copilot Cline
    Тип инструмента IDE (fork VS Code) с ИИ-агентами Плагин автодополнения Агент для VS Code
    Работа с проектом 🟢 Контекст всего workspace 🟡 Ограниченный контекст 🟢 Глубокий доступ к файлам
    Агентное редактирование 🟢 Да (правит файлы сам) 🔴 Нет 🟢 Да
    Inline-команды 🟢 Развитые (Ctrl+K) 🟡 Ограниченные 🟢 Да
    Многофайловые правки 🟢 Стабильно 🔴 Практически нет 🟢 Да
    Code review 🟢 Удобно встроен 🟡 Частично 🟡 Зависит от модели
    Unity3D / C# 🟢 Отлично подходит 🟡 Нормально 🟡 Рабоче, но шумно
    Контроль правок 🟢 Diff перед применением 🟡 Через git 🟡 Через git
    Поддержка LLM 🟢 Много встроенных моделей 🟡 Ограничено Copilot 🟢 Любые (в т.ч. локальные)
    Локальные модели 🔴 Нет 🔴 Нет 🟢 Да
    Простота входа 🟢 Высокая 🟢 Очень высокая 🟡 Средняя
    Риск «сломать проект» 🟡 Есть, но контролируем 🟢 Минимальный 🔴 Высокий без опыта
    Подходит для новичков 🟢 Да 🟢 Да 🔴 Скорее нет
    Скорость итераций 🟢 Высокая 🟡 Средняя 🟢 Высокая
    Стоимость 🟡 Подписка 🟡 Подписка 🟢 Оплата токенов

    ---

    Краткие выводы

    Cursor AI

    • Лучший баланс мощности, контроля и удобства
    • Оптимален для Unity3D и C#
    • Подходит как для одиночной, так и для сложной проектной разработки
    • Требует дисциплины и code review

    GitHub Copilot

    • Отличный автокомплит
    • Минимальные риски
    • Почти не подходит для сложных архитектурных правок

    Cline

    • Максимальная гибкость и контроль
    • Поддержка локальных моделей
    • Высокий риск ошибок без опыта
    • Больше подходит для экспериментальных workflow

    ---

    Итоговая рекомендация

    • Unity3D / C# / productionCursor AI
    • Подсказки и автокомплитCopilot
    • Эксперименты, локальные LLM, кастомные пайплайныCline
  • С новым 2026 годом

    Форум продожает свою работу.

    Обновился дизайн.
    Перенесены темы по разделами.
    Пустые разделы форума были удалены.

  • Шаблон скрипта для проверки MD5 в Cheat Engine с авто-активацией чита

    Шаблон скрипта для проверки MD5 в Cheat Engine с авто-активацией чита

    Сначала дается краткий сжатый код.

    function onOpenProcess(processid)
      reinitializeSymbolhandler()
      local md5Process = GetMd5Process(processid)
      PrintMd5Process(process, md5Process)
      local isSupportedVersion = CheckingMd5CurrentProcess(md5Process)
      local lineResult = isSupportedVersion and 'Is supported version. Activating cheat...' or 'Is not supported version.'
      if not isSupportedVersion then
        speakEnglish(lineResult, false)
        messageDialog('Error', lineResult, mtError, mbClose)
      else
        speakEnglish(lineResult, true)
        -- Активация простого чита: поиск и заморозка адреса здоровья
        autoAssemble([[
          alloc(newmem,2048)
          label(code)
          label(return)
          "Base.exe"+123456:
          code:
            mov [eax],(int)999
          return:
          jmp return
          newmem:
            jmp "Base.exe"+123456
            nop
            jmp return
        ]])
        messageDialog('Success', 'Cheat activated for health: 999', mtInformation, mbOK)
      end
    end
    

    А потом дается объяснение. Все нужно в формате nodebb

    ce_md5_cheat.lua

    md5 - это алгоритм хэширования exe-файла, который позволяет точно идентифицировать версию игры или приложения. Это критично для .CT таблиц в Cheat Engine, чтобы избежать ошибок из-за обновлений, меняющих смещения структур памяти.

    В случае несоответствия MD5 версии показывается диалог ошибки и звуковое оповещение. Если версия поддерживается, скрипт автоматически активирует простой чит (в примере - заморозка здоровья на 999 по смещению "Base.exe"+123456; замените на реальные значения для вашей игры).

    Обязательно проверяйте MD5 перед использованием таблиц, чтобы смещения структур не сдвинулись из-за патчей!

    1. Получить md5 открытого процесса и записать его в MD5_CHEKING вручную
    \-- Функция для ручного вывода md5 ранее подключенного процесса. Для установки MD5_CHEKING
    PrintMd5CurrentProcess()
    
    1. Пример проверки md5 с авто-активацией
    function onOpenProcess(processid)
      reinitializeSymbolhandler()
      local md5Process = GetMd5Process(processid)
      PrintMd5Process(process, md5Process)
      local isSupportedVersion = CheckingMd5CurrentProcess(md5Process)
      local lineResult = isSupportedVersion and 'Is supported version. Activating cheat...' or 'Is not supported version.'
      if not isSupportedVersion then
        speakEnglish(lineResult, false)
        messageDialog('Error', lineResult, mtError, mbClose)
      else
        speakEnglish(lineResult, true)
        -- Активация простого чита: поиск и заморозка адреса здоровья
        autoAssemble([[
          alloc(newmem,2048)
          label(code)
          label(return)
          "Base.exe"+123456:
          code:
            mov [eax],(int)999
          return:
          jmp return
          newmem:
            jmp "Base.exe"+123456
            nop
            jmp return
        ]])
        messageDialog('Success', 'Cheat activated for health: 999', mtInformation, mbOK)
      end
    end
    
  • RE: Рекомендации для изучения промтинга LLM

    🌐 Мультимодальные LLM: когда ИИ видит, слышит и понимает контекст

    Что это?
    Модели, способные одновременно обрабатывать текст, изображения, аудио и видео. Это не просто "распознавание картинок", а глубокое понимание связей между разными типами данных.

    Пример работы:
    Загружаете фото схемы электронной платы + текстовый запрос: "Найди ошибку в разводке конденсатора C7 и предложи исправление в формате KiCad".
    Модель:
    1️⃣ Анализирует изображение,
    2️⃣ Сопоставляет с текстовым контекстом,
    3️⃣ Генерирует инструкцию с исправлением.

    ---

    🔧 Ключевые возможности и применение

    Тип данных Что умеет модель Практическое применение
    Текст + Изображение Описание сцен, анализ графиков, чтение рукописных заметок Автоматизация документооборота, генерация ALT-текста, поиск дефектов на чертежах
    Текст + Аудио Транскрибация с контекстным анализом, генерация эмоциональной речи Виртуальные ассистенты с "характером", анализ колл-центров, озвучка презентаций
    Видео + Текст Понимание сюжета, поиск ключевых моментов, аннотирование Автосуммаризация записей встреч, модерация контента, создание монтажных листов

    ---

    ⚙Как работать с мультимодальностью?

    1. Выбор инструментов:

      • OpenAI GPT-4o (vision + text + voice) — через API или ChatGPT.
      • Google Gemini 1.5 — поддерживает до 1 млн токенов контекста (включая видео!).
      • Open-source: LLaVA, Fuyu-8B (можно запустить локально с GPU).
    2. Специфика промтов:

      • Четко указывайте тип данных:
        "Проанализируй скриншот ошибки (вложение 1) и лог-файл (вложение 2). Предложи 3 решения."
      • Управляйте фокусом:
        "Сравни графики продаж за 2023 и 2024 (PDF-страница 5). Сосредоточься на падении в Q3."
      • Используйте ролевые модели:
        "Ты инженер-электронщик. По фото прототипа определи, где перегревается компонент."
    3. Технические требования:

      • Для локальных моделей: GPU с 8+ GB VRAM (например, LLaVA-1.6 требует NVIDIA RTX 3090).
      • В облаке: API с поддержкой multipart/form-data (для загрузки бинарных файлов).

    ---

    🚀 Зачем это технарю?

    - Автоматизация сложных задач:

    Запрос: "По видео сборки робота составь checklist для тестирования (вывод в Markdown)".
    Результат: Готовый чеклист с привязкой к временным меткам.
    - Работа с документацией:
    Анализ сканов ТУ, схем, диаграмм без ручного ввода данных.
    - Быстрый прототипинг:
    "Сгенерируй UI для приложения по этому наброску на салфетке (фото) + описание функционала (текст)".

    ---

    ⚠Ограничения (на 2025 год):

    - Точность распознавания: Может ошибаться в деталях (например, номера микросхем на фото).
    - Контекстное окно: Видео длительностью >10 мин часто требуют препроцессинга.
    - Стоимость: Мультимодальные API в 3-5x дороже текстовых (например, GPT-4o vision — $5-15 за 1к запросов).

    ---

    🔮 Как начать?

    1. Поэкспериментируйте в Google Gemini (бесплатно) с загрузкой PDF/изображений.
    2. Для кода: Llama 3 с LLaVA (туториал).
    3. Протестируйте API через OpenRouter (поддержка >30 мультимодальных моделей).

    Главный принцип: Мультимодальность — не замена текстовым LLM, а мощное расширение для задач, где контекст требует визуала или звука.

  • Рекомендации для изучения промтинга LLM

    Обязательно к изучению для любого технаря: как эффективно работать с LLM через промты

    Эта книга – must-read для понимания принципов составления промтов (запросов) к большим языковым моделям (LLM). Без этих знаний взаимодействие с ИИ будет поверхностным и неэффективным.

    Что такое LLM? (Spoiler)
    Большая языковая модель (LLM) – это нейросеть, обученная на огромных массивах текстовых данных (книги, статьи, код, диалоги). Её ключевые особенности:

    • Миллиарды параметров – чем их больше, тем "умнее" модель.
    • Понимание контекста – LLM улавливают связи между словами, идеями и даже абстрактными концепциями.
    • Генерация текста – от простых ответов до сложных аналитических выводов.
    • Мультизадачность – перевод, суммаризация, программирование, креативное письмо и многое другое.

    📖 Где прочитать?
    - Kaggle (требуется аккаунт)
    - PDF (Google Drive, прямое скачивание)

    ---

    🔧 Полный план погружения в мир LLM и промт-инжиниринга

    1️⃣ VPN – без него никуда

    Современные технологии развиваются там, где нет блокировок. Без VPN вы:
    - Не получите доступ к лучшим LLM (Claude, Gemini, некоторые версии GPT).
    - Не сможете тестировать API (например, через OpenRouter).
    - Пропустите ключевые обучающие материалы (курсы, документация, обсуждения).
    🔹 Да, VPN – это дополнительный шаг, но без него вы останетесь в "информационном вакууме".

    2️⃣ Промт-инжиниринг – искусство формулировки запросов

    - Это не просто "задать вопрос", а контролировать вывод модели.
    - Нужно учиться:

    • Чётко ставить задачи ("напиши код" vs. "напиши оптимизированную функцию на Python, которая...").
    • Управлять форматом ответа (JSON, Markdown, таблицы).
    • Использовать примеры (few-shot prompting).
      🔹 Книга выше – отличный старт, но дальше нужно экспериментировать.

    3️⃣ Архитектура Transformer – основа всех современных LLM

    - Сложная? Да. Можно разобраться в базе? Абсолютно.
    - Ключевые компоненты:

    • Self-Attention – как модель "понимает" связи между словами.
    • Токенизация – как текст превращается в числа.
    • Контекстное окно – почему модели "забывают" начало длинного текста.
      🔹 Рекомендую видео с VPN (например, MIT или Stanford лекции).

    4️⃣ Запустите локальную модель (хотя бы 7B параметров)

    - Почему? Чтобы понять ограничения LLM.
    - Примеры: Llama 3, Mistral, Phi-3.
    - Сравните ответы с GPT-4o или Claude 3 – разница будет очевидна.
    🔹 Это даст понимание, когда использовать облачные модели, а когда хватит локальных.

    5️⃣ Google Android Studio AI – скрытый gem

    - Два окна: ваш запрос vs. результат.
    - Идеально для:

    • Сравнения разных формулировок.
    • Тестирования контекстного понимания.
    • Экспериментов с кодогенерацией.

    6️⃣ Работа с API (DeepSeek, OpenRouter и др.)

    - Что важно изучить:

    • Роли (system, user, assistant) – как управлять поведением модели.
    • Параметры (temperature, top_p, max_tokens) – тонкая настройка ответов.
    • Streaming – как получать ответ по частям.
      🔹 Попробуйте отправить запрос с разными параметрами и сравните вывод.

    7️⃣ AI-агенты – следующий уровень автоматизации

    - Как работают? Модель генерирует JSON-инструкции, которые выполняет агент.
    - Примеры использования:

    • Автоматические сводки новостей (агент парсит сайты и присылает вам на почту).
    • Локальные скрипты (например, агент переименовывает файлы по заданному шаблону).
      - Сервисы для быстрого создания агентов:
    • AutoGPT
    • LangChain
    • Microsoft Autogen

    ---

    💡 Зачем всё это нужно?

    Преимущество Пример
    Избавление от рутины Автоматизация документооборота, генерация отчётов.
    Ускорение разработки Поиск багов, написание тестов, объяснение кода.
    Доступ к знаниям Вместо чтения документации – сразу рабочий пример.
    Кастомизация Агенты под ваши конкретные задачи (например, мониторинг соцсетей).

    🔹 Промт-инжиниринг – это "программирование 2.0", где вы управляете не кодом, а интеллектом.

    ---

    🚀 Что дальше?

    - Экспериментируйте с разными моделями.
    - Тестируйте агентов на реальных задачах.
    - Делитесь промтами – это новая форма коллективного знания.

    P.S. Да, тема огромная, но начать можно с малого – книги и пары экспериментов. Главное – не останавливаться!

Список участников