Шаблон скрипта для проверки MD5 в Cheat Engine с авто-активацией чита
Сначала дается краткий сжатый код.
function onOpenProcess(processid)
reinitializeSymbolhandler()
local md5Process = GetMd5Process(processid)
PrintMd5Process(process, md5Process)
local isSupportedVersion = CheckingMd5CurrentProcess(md5Process)
local lineResult = isSupportedVersion and 'Is supported version. Activating cheat...' or 'Is not supported version.'
if not isSupportedVersion then
speakEnglish(lineResult, false)
messageDialog('Error', lineResult, mtError, mbClose)
else
speakEnglish(lineResult, true)
-- Активация простого чита: поиск и заморозка адреса здоровья
autoAssemble([[
alloc(newmem,2048)
label(code)
label(return)
"Base.exe"+123456:
code:
mov [eax],(int)999
return:
jmp return
newmem:
jmp "Base.exe"+123456
nop
jmp return
]])
messageDialog('Success', 'Cheat activated for health: 999', mtInformation, mbOK)
end
end
А потом дается объяснение. Все нужно в формате nodebb
ce_md5_cheat.lua
md5 - это алгоритм хэширования exe-файла, который позволяет точно идентифицировать версию игры или приложения. Это критично для .CT таблиц в Cheat Engine, чтобы избежать ошибок из-за обновлений, меняющих смещения структур памяти.
В случае несоответствия MD5 версии показывается диалог ошибки и звуковое оповещение. Если версия поддерживается, скрипт автоматически активирует простой чит (в примере - заморозка здоровья на 999 по смещению "Base.exe"+123456; замените на реальные значения для вашей игры).
Обязательно проверяйте MD5 перед использованием таблиц, чтобы смещения структур не сдвинулись из-за патчей!
Получить md5 открытого процесса и записать его в MD5_CHEKING вручную
\-- Функция для ручного вывода md5 ранее подключенного процесса. Для установки MD5_CHEKING
PrintMd5CurrentProcess()
Пример проверки md5 с авто-активацией
function onOpenProcess(processid)
reinitializeSymbolhandler()
local md5Process = GetMd5Process(processid)
PrintMd5Process(process, md5Process)
local isSupportedVersion = CheckingMd5CurrentProcess(md5Process)
local lineResult = isSupportedVersion and 'Is supported version. Activating cheat...' or 'Is not supported version.'
if not isSupportedVersion then
speakEnglish(lineResult, false)
messageDialog('Error', lineResult, mtError, mbClose)
else
speakEnglish(lineResult, true)
-- Активация простого чита: поиск и заморозка адреса здоровья
autoAssemble([[
alloc(newmem,2048)
label(code)
label(return)
"Base.exe"+123456:
code:
mov [eax],(int)999
return:
jmp return
newmem:
jmp "Base.exe"+123456
nop
jmp return
]])
messageDialog('Success', 'Cheat activated for health: 999', mtInformation, mbOK)
end
end
Топ-20 лучших моделей и инструментов ИИ для написания кода на C# в Unity3D на 2025 год
Cвежий обзор на основе бенчмарков (SWE-bench, LiveCodeBench), отзывов разработчиков с Reddit, Unity Discussions и Dev.to (данные на октябрь 2025). Это мой взгляд на топ-20 моделей/инструментов, отсортированный по общей популярности и полезности для Unity (учитывая контекст API, MonoBehaviour, ассеты и т.д.).
Список идеален для опроса — можно скопировать в Google Forms или Twitter Poll. Если вы Unity-разработчик, поделитесь своим опытом в комментариях: какая модель спасла вам больше всего времени?
Основной топ-20 (по популярности и эффективности)
Ранг
Модель/Инструмент
Краткое описание и почему для Unity C#
Рейтинг (из обзоров 2025)
Цитата из источников
1
GitHub Copilot
Автодополнение в VS/Rider; понимает Unity API (корутины, UI). Ускоряет на 50%.
95/100
"Идеален для .NET/Unity интеграции"
2
Cursor
Генерирует целые классы (инвентарь, физика); на базе Claude/GPT.
95/100
"Топ для ASP.NET, адаптируется к Unity"
3
Claude 3.7 Sonnet
Лучший для сложного Unity-кода (UI, ассеты); 80% готового без правок.
87/100 (Claude Code)
"Превосходит GPT для Unity"
4
ChatGPT 4.1
Прототипы скриптов (сцены, звук); большой контекст (1M токенов).
88/100
"Хорош для C# объяснений"
5
Amazon Q Developer
Многофайловые правки; поддержка C# в VS, безопасность для Unity.
85/100
"Интеграция с IDE для .NET"
6
Tabnine
Приватный автокомплит; кастомизация под Unity стили.
82/100
"Поддержка 30+ языков, incl. C#"
7
Codeium (Windsurf)
Бесплатный; быстрый для Unity сниппетов (физика, события).
80/100
"70+ языков, C# сильный"
8
Google Gemini 2.5 Pro
Прототипинг с 1M контекстом; Gemini CLI для терминала.
78/100
"Код + отладка для C++-like C#"
9
Sourcegraph Cody
Контекст codebase; тесты/рефакторинг для Unity проектов.
80/100
"Для больших .NET баз"
10
Aider
CLI для многофайловых правок; Git-интеграция для Unity.
78/100
"Автономные изменения в C#"
11
Continue.dev
Открытый; кастом модели для Unity (Claude/GPT).
82/100
"Для Rider/VS, .NET фокус"
12
Replit AI (Ghostwriter)
Облачный IDE; генерация/объяснение Unity скриптов.
75/100
"Для новичков в C#"
13
DeepSeek V3
Низкий error rate; для точного C# (бенчмарки > GPT).
85/100
"Топ open-source для кода"
14
Llama 4 Maverick
Локальный; хорош для React-like UI в Unity.
80/100
"43% на LiveCodeBench"
15
Qwen3-Coder
Open-source агент; 1M контекст для Unity сцен.
78/100
"Автономная генерация"
16
AskCodi
Промпты для C#; интеграция с IntelliJ/Rider.
76/100
"Для прототипов"
17
Cline
Локальный агент в VS Code; планирует Unity задачи.
74/100
"Plan/Act для проектов"
18
Bolt.new
Браузерный; быстрая генерация Unity прототипов.
72/100
"Для full-stack, адапт. C#"
19
Unity Muse
Нативный в Editor; генерирует C# с ассетами/сценами.
70/100
"Специфично для Unity"
20
JetBrains AI
В Rider; автокомплит для .NET/Unity.
75/100
"Интеграция с IDE"
Подсписки по критериям (для тематических опросов)
В обсуждениях часто голосуют по точности, интеграции и скорости. Вот топ-10 для каждого (на основе 70% отзывов и бенчмарков).
1. По точности кода (минимум ошибок в Unity C#, % на бенчмарках)
Claude 3.7 Sonnet (72% SWE-bench)
DeepSeek V3 (выше GPT)
ChatGPT 4.1 (54.6%)
Google Gemini 2.5 Pro (63.8%)
GitHub Copilot (высокий для .NET)
Cursor (на базе топ-моделей)
Llama 4 Maverick (43% LiveCodeBench)
Qwen3-Coder (open-source лидер)
Amazon Q Developer (с сканированием)
Sourcegraph Cody (codebase-aware)
2. По интеграции с Unity (поддержка API, Editor/IDE, ассеты)
GitHub Copilot (VS/Rider + Unity контекст)
Unity Muse (нативный в Editor)
Cursor (многофайловые Unity правки)
JetBrains AI (Rider для Unity)
Continue.dev (кастом для Unity)
Amazon Q Developer (VS интеграция)
Tabnine (Unity стили)
Codeium (быстрый в IDE)
Replit AI (облачный Unity прототип)
Aider (Git для Unity проектов)
3. По скорости/удобству (генерация <10с, бесплатность, UX)
Codeium (бесплатный, быстрый)
Bolt.new (браузерный, мгновенный)
Tabnine (оффлайн опции)
Replit AI (облачный, простой)
AskCodi (промпт-based)
Cline (локальный агент)
GitHub Copilot (inline suggestions)
ChatGPT 4.1 (чат-интерфейс)
Google Gemini CLI (терминал)
Windsurf (free tier)
Что думаете? Готовы ли вы протестировать Claude 3.7 в следующем проекте? Давайте обсудим!
Ранг
Модель
Провайдер
Ключевые метрики (2025)
Краткое описание
1
GPT-5
OpenAI
GPQA: 87.3%, AIME: 100%, Контекст: 2M токенов, Цена: $0.15/$0.45/1M
Фронтир-модель с унифицированным рассуждением; лидер в математике и агентах.
2
Grok 4
xAI
GPQA: 87.5%, SWE-Bench: 75%, Скорость: 1500 t/s
Мультимодальная с "Deep Think"; топ в рассуждениях и коде; open-weight версия.
3
Gemini 2.5 Pro
Google
GPQA: 86.4%, GRIND: 82.1%, Контекст: 1M+
Нативная мультимодальность (текст/видео); "Deep Think" для шагового мышления.
4
Claude 4 Opus
Anthropic
SWE-Bench: 72.5%, Контекст: 1M, Цена: $0.20/$0.60
Безопасная enterprise-модель; excels в коде и этике; 1M контекст.
5
DeepSeek V3.1
DeepSeek
GPQA: 85%, Open-source, Скорость: 2000 t/s
Гибрид "thinking/non-thinking"; конкурент GPT в рассуждениях; MIT-лицензия.
6
Claude 4 Sonnet
Anthropic
SWE-Bench: 72.7%, GRIND: 75%, Цена: $0.10/$0.30
Быстрая версия Opus; топ для кодирования и исследований.
7
Qwen3-235B
Alibaba
Tool Use: 80%, Контекст: 128K, Open-source
Многоязычная с фокусом на агентах; лидер в Китае.
8
Llama 4 Maverick
Meta
LiveCodeBench: 43%, Контекст: 256K, Open-source
Масштабируемая; сильна в UI/коде; 405B вариант — топ open.
9
OpenAI o3
OpenAI
AIME: 98.4%, Humanity's Last Exam: 20.32%
Агентная модель; excels в многошаговых задачах.
10
Grok 3 Beta
xAI
GPQA: 84.6%, Скорость: 1200 t/s
Предшественник Grok 4; фокус на математике.
11
GPT-4.5 Orion
OpenAI
SWE-Bench: 74.9%, Цена: $0.12/$0.36
Улучшенная GPT-4o; для enterprise.
12
Nemotron Ultra 253B
Nvidia
GRIND: 57.1%, Open-source
Синтетическая генерация данных; matches GPT-4.
13
Mistral Large 2
Mistral AI
Контекст: 128K, Скорость: 1800 t/s
Эффективная европейская; multilingual.
14
Cohere Command R+
Cohere
Tool Use: 72%, Контекст: 128K
10 языков; для RAG и агентов.
15
Llama 3.1 405B
Meta
Tool Use: 81.1%, Open-source
Крупнейшая open; топ в математике.
16
Gemini 2.0 Flash
Google
Latency: 0.34s, Цена: $0.075/$0.3
Быстрая мультимодальная; для мобильных.
17
DeepSeek R1
DeepSeek
GPQA: 84%, Open-source
Open-source шокер; competitive с proprietary.
18
Claude Opus 4.1
Anthropic
SWE-Bench: 74.5%, Контекст: 1M
Обновленная для enterprise; безопасность.
19
GPT-4o
OpenAI
Tool Use: 72.08%, Скорость: 1000 t/s
Мультимодальная; повседневный лидер.
20
Llama 3.3 70B
Meta
AIME: 93.3%, Скорость: 2500 t/s
Быстрая open; для on-device.
21
Gemma 3 27B
Google
Цена: $0.07/$0.07, Open-source
Легкая; для edge-устройств.
22
Falcon 180B
TII
Контекст: 128K, Open-source
Арабский фокус; multilingual.
23
Qwen3-Coder
Alibaba
SWE-Bench: 70%, Open-source
Специализирована на коде.
24
Nova Pro
Nova
Tool Use: 68.4%, Latency: 0.3s
Быстрая для агентов.
25
GPT oss 120B
OpenAI
AIME: 97.9%, Open-source
Open-версия GPT; для devs.
26
Claude 3.7 Sonnet
Anthropic
GRIND: 60.7%, Цена: $0.08/$0.24
Предыдущая, но все еще топ.
27
Llama 4 Scout
Meta
Скорость: 2600 t/s, Open-source
Самая быстрая open.
28
GPT-4o mini
OpenAI
Latency: 0.35s, Цена: $0.05/$0.15
Бюджетная мультимодальная.
29
Nemotron-4 340B
Nvidia
Контекст: 256K, Open-source
Для синтетики и кода.
30
Mistral Nemo
Mistral AI
Скорость: 1500 t/s, Open-source
Компактная; multilingual.
31
Llama 3.1 70B
Meta
Скорость: 2100 t/s
Средний размер; баланс.
32
Gemini 1.5 Flash
Google
Цена: $0.075/$0.3
Быстрая для чатов.
33
DeepSeek V3
DeepSeek
GPQA: 83%, Open-source
Базовая V3; сильна в коде.
34
Qwen2.5 72B
Alibaba
Контекст: 128K
Обновленная Qwen.
35
Grok-3
xAI
AIME: 93.3%
Предыдущая Grok.
36
Llama 3.1 8B
Meta
Latency: 0.32s, Open-source
Легкая для мобильных.
37
Claude 4 Haiku
Anthropic
Скорость: 2000 t/s
Быстрая версия Sonnet.
38
GPT oss 20B
OpenAI
AIME: 98.7%, Open-source
Маленькая open GPT.
39
Gemma 2 27B
Google
Open-source
Предыдущая Gemma.
40
Command R
Cohere
Контекст: 128K
Для RAG.
41
SmolLM3
Hugging Face
Open-source, Скорость: 1800 t/s
Компактная open.
42
T5Gemma
Google
Контекст: 512K
Для генерации.
43
LFM2
Liquid AI
On-device, Latency: 0.2s
Самая быстрая локальная.
44
Kim K2 1T
Moonshot AI
Параметры: 1T, Open-source
Крупнейшая open.
45
Perplexity Comet
Perplexity
Агентный браузер
Для поиска/агентов.
46
Kimi Researcher
Moonshot AI
Многошаговое рассуждение
Автономный агент.
47
Nova Micro
Nova
Цена: $0.04/$0.14
Самая дешевая.
48
Llama 3.3 8B
Meta
Open-source
Легкая обновленная.
49
Mistral Small 2
Mistral AI
Скорость: 2200 t/s
Компактная.
50
Falcon 40B
TII
Open-source
Средний размер.
51
Qwen3 72B
Alibaba
Multilingual
Китайский лидер.
52
Grok 2.5
xAI
Контекст: 128K
Средняя Grok.
53
Claude 3.5 Sonnet
Anthropic
SWE-Bench: 70%
Предыдущая, популярная.
54
GPT-4.1
OpenAI
Мультимодальная
Обновленная 4o.
55
Gemini 2.5 Flash
Google
Latency: 0.3s
Быстрая Pro.
56
DeepSeek Coder V2
DeepSeek
SWE-Bench: 68%
Для кода.
57
Llama 4 70B
Meta
Open-source
Новый Llama.
58
Cohere Aya
Cohere
Multilingual, 101 языков
Глобальная.
59
Nemotron Mini
Nvidia
Open-source
Легкая.
60
Mistral Codestral
Mistral AI
Кодирование
Специализированная.
61
Qwen2.5 Coder
Alibaba
Open-source
Код-фокус.
62
Grok 3 Mini
xAI
Latency: 0.4s
Бюджетная.
63
Claude Haiku 3.5
Anthropic
Скорость: 1800 t/s
Быстрая.
64
GPT-3.5 Turbo
OpenAI
Цена: $0.02/$0.06
Базовая, все еще используется.
65
Gemma 3 9B
Google
Open-source
Маленькая.
66
Llama 3.2 11B
Meta
Vision-enabled
Мультимодальная open.
67
Falcon 7B
TII
Open-source
Базовая.
68
Qwen1.5 32B
Alibaba
Контекст: 32K
Старая, но надежная.
69
DeepSeek Math
DeepSeek
AIME: 90%
Математика-спец.
70
Mistral 7B
Mistral AI
Open-source
Классика.
71
Cohere Embed
Cohere
Для эмбеддингов
Не LLM, но топ в задачах.
72
Nemotron 70B
Nvidia
Open-source
Средняя.
73
Llama 2 70B
Meta
Legacy open
Все еще популярна.
74
GPT-4 Turbo
OpenAI
Контекст: 128K
Предыдущая.
75
Gemini 1.5 Pro
Google
Контекст: 1M
Предыдущая Pro.
76
Claude 3 Opus
Anthropic
Контекст: 200K
Классика.
77
Qwen2 72B
Alibaba
Open-source
Обновленная.
78
Grok 2
xAI
Мультимодальная
Предыдущая.
79
DeepSeek V2
DeepSeek
Open-source
Базовая V2.
80
Mistral Mixtral 8x22B
Mistral AI
MoE, Open-source
Эффективная.
81
Llama 3 8B
Meta
Open-source
Базовая.
82
Falcon 11B
TII
Open-source
Маленькая.
83
Gemma 2 9B
Google
Open-source
Легкая.
84
Cohere Command R3
Cohere
Контекст: 128K
Обновленная.
85
Nemotron 15B
Nvidia
Open-source
Компактная.
86
Qwen1.5 7B
Alibaba
Open-source
Базовая.
87
Claude 2.1
Anthropic
Legacy
Для legacy-проектов.
88
GPT-3.5
OpenAI
Цена: низкая
Базовая.
89
Gemini Nano
Google
On-device
Для мобильных.
90
Llama 1 7B
Meta
Open-source
Старая open.
91
Mistral 7B Instruct
Mistral AI
Open-source
Инструкционная.
92
DeepSeek 6.7B
DeepSeek
Open-source
Маленькая.
93
Qwen 1.5 14B
Alibaba
Open-source
Средняя.
94
Grok 1.5
xAI
Контекст: 128K
Ранняя.
95
Claude Instant 1.2
Anthropic
Скорость: высокая
Быстрая legacy.
96
GPT-2
OpenAI
Legacy
Историческая.
97
BERT Large
Google
Для NLP
Не LLM, но топ в задачах.
98
T5-XXL
Google
Open-source
Для генерации.
99
BLOOM 176B
BigScience
Open-source
Multilingual.
100
PaLM 2
Google
Legacy
Предшественница Gemini.
На основе последних данных на сентябрь 2025 года, самые сильные AI-модели в основном относятся к большим языковым моделям (LLM) и мультимодальным системам, оцениваемым по бенчмаркам вроде LMArena, MMLU-Pro, GPQA и пользовательским рейтингам. "Сила" здесь определяется производительностью в задачах reasoning, coding, генерации контента, мультимодальности (текст, изображения, видео, аудио) и общими рейтингами. Я опираюсь на актуальные рейтинги и списки из надежных источников.
Вот топ-10 сильнейших моделей (с фокусом на LLM, но включая ключевые мультимодальные), отсортированные по общим рейтингам и релизам (от новейших и высокооцененных). Для каждой указаны разработчик, ключевые сильные стороны и примеры применения:
Место
Модель
Разработчик
Ключевые сильные стороны
Применение
Параметры / Контекст
1
Gemini 2.5 Pro
Google DeepMind
Лидер в общих рейтингах (LMArena 1285), мультимодальность (текст, изображения, видео, код), продвинутый reasoning и обработка больших контекстов (до 1 млн токенов).
Исследования, кодинг, генерация контента, маркетинг.
Неизвестно / 1 млн токенов
2
GPT-5
OpenAI
Улучшенная точность (на 26% меньше галлюцинаций, чем в GPT-4o), мультимодальность, proactive engagement; сильна в сложных задачах.
Текстогенерация, анализ данных, coding, проекты с большим контекстом.
Неизвестно / 272 тыс. токенов
3
Claude 4 Opus
Anthropic
Превосходит в сложных задачах, coding, research; extended thinking mode для глубокого анализа; контекст до 200 тыс. токенов (бета 1 млн).
Кодинг, анализ данных, enterprise-задачи в финансах и здравоохранении.
Неизвестно / 200 тыс. токенов
4
Grok 4
xAI
Интеграция с внешними инструментами (поиск, анализ изображений/видео), сильный reasoning через RL; trained на огромных данных.
Реал-тайм поиск, agentic coding, мониторинг трендов.
Неизвестно / 256 тыс. токенов
5
DeepSeek V3 / R2
DeepSeek
Open-source, MoE-архитектура для efficiency; сильна в math, coding, reasoning; мультимодальность (текст из изображений).
Решение сложных проблем, бизнес-контент, финанализ.
37 млрд (активных) / 128 тыс. токенов
6
Qwen3 (например, 235B-A22B-Thinking)
Alibaba
Open-source, фокус на reasoning, coding, math; гибкая для software engineering и мультимодальности.
Кодогенерация, multilingual задачи, автоматизированное доказательство теорем.
22 млрд / 262 тыс. токенов
7
Llama 4 / Nemotron Ultra
Meta / NVIDIA
Open-source, мультимодальность (текст, изображения, видео); огромный контекст (до 10 млн токенов в Scout-версии); outperforms GPT-4o в coding и multilingual.
Customer service, data analysis, content creation.
Неизвестно / 128 тыс. токенов
8
GPT-4o / o3
OpenAI
Multimodal (текст, изображения, аудио, видео); Voice Mode; сильна в повседневных задачах, но с cutoff в знаниях (октябрь 2023).
Генерация текста/кода, анализ, разговоры.
Неизвестно / До 1 млн токенов
9
Mistral Medium 3
Mistral AI
MoE для efficiency; специализирована на coding, reasoning, мультимодальности; open-source варианты.
Enterprise-задачи, code reviews, complex reasoning.
Неизвестно / 128 тыс. токенов
10
Sora
OpenAI
Лидер в text-to-video; HD до 1080p, до 20 сек; remixing и blending ассетов.
Генерация видео, прототипирование контента.
Не применимо (видео-модель)
Дополнительно:
- Для видео: Veo 3 (Google) лидирует в 4K-генерации, но с ограничениями по длине.
- Для аудио: Whisper (OpenAI) для транскрипции, AudioCraft (Meta) для генерации.
- Рейтинги динамичны; модели вроде GPT-5 и Gemini часто обновляются. Для доступа: многие доступны через API (OpenAI, Google), open-source (DeepSeek, Llama) — на Hugging Face.
Ref. AI Grock4
Мультимодальные LLM: когда ИИ видит, слышит и понимает контекст
Что это?
Модели, способные одновременно обрабатывать текст, изображения, аудио и видео. Это не просто "распознавание картинок", а глубокое понимание связей между разными типами данных.
Пример работы:
Загружаете фото схемы электронной платы + текстовый запрос: "Найди ошибку в разводке конденсатора C7 и предложи исправление в формате KiCad".
Модель:
1️⃣ Анализирует изображение,
2️⃣ Сопоставляет с текстовым контекстом,
3️⃣ Генерирует инструкцию с исправлением.
---
Ключевые возможности и применение
Тип данных
Что умеет модель
Практическое применение
Текст + Изображение
Описание сцен, анализ графиков, чтение рукописных заметок
Автоматизация документооборота, генерация ALT-текста, поиск дефектов на чертежах
Текст + Аудио
Транскрибация с контекстным анализом, генерация эмоциональной речи
Виртуальные ассистенты с "характером", анализ колл-центров, озвучка презентаций
Видео + Текст
Понимание сюжета, поиск ключевых моментов, аннотирование
Автосуммаризация записей встреч, модерация контента, создание монтажных листов
---
️ Как работать с мультимодальностью?
Выбор инструментов:
OpenAI GPT-4o (vision + text + voice) — через API или ChatGPT.
Google Gemini 1.5 — поддерживает до 1 млн токенов контекста (включая видео!).
Open-source: LLaVA, Fuyu-8B (можно запустить локально с GPU).
Специфика промтов:
Четко указывайте тип данных:
"Проанализируй скриншот ошибки (вложение 1) и лог-файл (вложение 2). Предложи 3 решения."
Управляйте фокусом:
"Сравни графики продаж за 2023 и 2024 (PDF-страница 5). Сосредоточься на падении в Q3."
Используйте ролевые модели:
"Ты инженер-электронщик. По фото прототипа определи, где перегревается компонент."
Технические требования:
Для локальных моделей: GPU с 8+ GB VRAM (например, LLaVA-1.6 требует NVIDIA RTX 3090).
В облаке: API с поддержкой multipart/form-data (для загрузки бинарных файлов).
---
Зачем это технарю?
- Автоматизация сложных задач:
Запрос: "По видео сборки робота составь checklist для тестирования (вывод в Markdown)".
Результат: Готовый чеклист с привязкой к временным меткам.
- Работа с документацией:
Анализ сканов ТУ, схем, диаграмм без ручного ввода данных.
- Быстрый прототипинг:
"Сгенерируй UI для приложения по этому наброску на салфетке (фото) + описание функционала (текст)".
---
️ Ограничения (на 2025 год):
- Точность распознавания: Может ошибаться в деталях (например, номера микросхем на фото).
- Контекстное окно: Видео длительностью >10 мин часто требуют препроцессинга.
- Стоимость: Мультимодальные API в 3-5x дороже текстовых (например, GPT-4o vision — $5-15 за 1к запросов).
---
Как начать?
Поэкспериментируйте в Google Gemini (бесплатно) с загрузкой PDF/изображений.
Для кода: Llama 3 с LLaVA (туториал).
Протестируйте API через OpenRouter (поддержка >30 мультимодальных моделей).
Главный принцип: Мультимодальность — не замена текстовым LLM, а мощное расширение для задач, где контекст требует визуала или звука.
Премии, связанные с Transformer и глубоким обучением
1. Премия Тьюринга (Turing Award) — «Нобелевка» в Computer Science
- За что дают?
За выдающийся вклад в области информатики.
- Кто получил за Transformer и deep learning?
В 2023 году премию получили:
Йошуа Бенджио (Yoshua Bengio)
Джеффри Хинтон (Geoffrey Hinton)
Ян Лекун (Yann LeCun)
(Но не авторы Transformer! Они получили её за более ранние работы по нейросетям.)
Однако авторы Transformer (Васуани, Шейзер и др.) тоже могут её получить в будущем — их работа считается революционной.
2. ACL Test of Time Award (премия за долгосрочное влияние)
- За что дают?
Награждают статьи, которые сильно повлияли на NLP через 10+ лет после публикации.
- Кто получил?
Пока "Attention Is All You Need" (2017) ещё не получила (ей всего 7 лет), но, скорее всего, получит в 2027–2030 годах.
3. NeurIPS Best Paper (премия за лучшую статью на конференции NeurIPS)
- За что дают?
За самые значимые исследования в machine learning.
- Получал ли Transformer?
Нет, статья вышла в arXiv (2017), а не на NeurIPS. Но если бы подавали — точно бы выиграла.
---
Почему авторы Transformer ещё не получили Тьюринга?
Премию Тьюринга дают с задержкой (обычно через 10–20 лет после открытия).
В 2023 наградили "отцов deep learning" (Хинтона и др.) — их работы 1980–2000-х сделали возможным появление Transformer.
Transformer ещё "слишком молод" (2017), но его авторы — главные кандидаты на премию в 2030-х.
---
Какие ещё награды получили авторы Transformer?
- Google Research Awards (внутренние премии).
- Упоминания в топ-конференциях (ICML, ACL, NeurIPS) как одна из самых влиятельных работ.
- Цитирования (более 80 000+ ссылок на статью — это гигантский показатель).
---
Вывод
- Пока авторы Transformer не получили Тьюринга, но их работа изменила всю NLP-индустрию.
- Скорее всего, их наградят в будущем — как Бенджио, Хинтона и ЛеКуна.
- Сейчас они получают признание через цитирования и внедрение их идей в ChatGPT, Gemini и другие ИИ.
Transformer — это как изобретение транзистора для ИИ: пока не всегда награждают, но без него ничего не работает.
Вот детальный анализ недочетов текущего подхода, направления для улучшений и инновационные способы интеграции ИИ:
---
1. Что не учли в текущей реализации
1.1 Динамическое изменение структур
- Проблема: Игры с procedural generation (например, Starfield) могут менять расположение полей во время выполнения.
- Решение: Добавить мониторинг паттернов доступа:
function TrackStructureChanges(baseAddr)
while true do
local newLayout = AnalyzeStructure(baseAddr)
CompareLayouts(lastLayout, newLayout) -- Алерт при изменениях
sleep(1000)
end
end
1.2 Мультиплатформенная поддержка
- Упущение: Нет оптимизации под ARM (Android/iOS) и консоли (PS5/Xbox).
- Исправление: Добавить детектор ABI:
function GetPlatformType()
if readMemory(0x10000, 4) == 0x7F454C46 then
return "ELF" -- Android/Linux
elseif readString(0, 4) == "XBOX" then
return "XBOX"
end
end
1.3 Обработка сетевых структур
- Пробел: Не анализируются пакеты сетевого протокола, хотя они часто дублируют игровые структуры.
- Доработка: Интеграция сниффера пакетов:
function HookNetworkPackets()
-- Фильтрация пакетов, содержащих координаты игроков
PacketSniffer.filter("PlayerPosition", "xx xx ?? ?? xx FF")
end
---
2. Ключевые направления для улучшений
2.1 Гибридный статико-динамический анализ
- Идея: Комбинировать результаты CE с Ghidra:
graph LR
CE[Динамический анализ в CE] -->|Экспорт| Ghidra
Ghidra[Статический анализ] -->|Импорт паттернов| CE
2.2 Система предсказания смещений
- Метод: Использовать статистику обращений для предсказания важных полей:
function PredictImportantOffsets()
local stats = CollectAccessStats()
return {
health = stats.mostAccessed[1].offset,
ammo = stats.mostWritten[3].offset
}
end
2.3 Визуализация в 3D
- Инновация: Отображение структур как графа в 3D-пространстве (используя Cheat Engine's OpenGL):
function Draw3DStructureGraph()
for addr, links in pairs(graph) do
RenderNode(addr, links, GetStructureColor(addr))
end
end
---
3. Интеграция ИИ: конкретные применения
3.1 Классификация типов данных через ML
- Подход: Нейросеть анализирует паттерны памяти:
# Образец модели PyTorch
class TypeClassifier(nn.Module):
def forward(self, x):
# x: [значения памяти, контекст инструкций]
return torch.softmax(self.layers(x), dim=1) # Вероятности типов
- Использование в Lua:
function AIDetectType(address)
local tensor = MemoryToTensor(address, 64)
local result = ExecutePyScript("model.predict", tensor)
return {"float", "int", "pointer"}[result]
end
3.2 Генерация эксплойтов через ИИ
- Пример: Автоматический поиск уязвимостей:
function FindVulnerabilities()
local patterns = AI_GenerateCrashPatterns()
for _, pattern in ipairs(patterns) do
if TryCorruptMemory(pattern) then
LogExploit(pattern)
end
end
end
3.3 NLP для анализа игрового кода
- Применение: Автоматическое комментирование структур:
function GenerateComments()
local code = Disassemble(0x123456, 50)
local comment = AI_AnalyzeCode(code)
SetComment(0x123456, comment) -- Например: "Рендеринг частиц, цикл из 12 итераций"
end
---
4. Практические примеры улучшений
4.1 Для читеров
- Авто-определение уязвимостей:
-- ИИ ищет паттерны для телепортации
local teleportCheat = AI_FindMemoryPattern({
"float x,y,z",
"write frequency > 1Hz",
"range -1000..1000"
})
4.2 Для моддеров
- Генерация SDK для модов:
GenerateModSDK({
structures = analyzed_graph,
hooks = FindCodeHooks(),
api = AI_GenerateAPI()
})
4.3 Для разработчиков
- Детектор багов:
-- ИИ находит некорректные указатели
local bugReports = AI_ScanFor(
"dangling pointers",
memory_ranges,
expected_patterns
)
---
5. Что еще можно улучшить?
5.1 Оптимизация
Проблема
Решение
Медленный поиск
Кэширование + параллельные потоки
Ложные срабатывания
Ансамбли ИИ-моделей
5.2 Безопасность
function AntiAntiCheat()
-- Маскировка брейкпоинтов под легитимные вызовы
HideDebugger({
stealth_mode = "SYSTEM_CALL",
fake_patterns = GetNormalTrafficSamples()
})
end
5.3 Пользовательский опыт
\-- Голосовое управление читами
RegisterVoiceCommand("дай бессмертие", function()
SetGodMode(true)
end)
---
Итог: дорожная карта улучшений
Срочные доработки (1-2 недели):
Динамический трекинг структур
ARM/консольная поддержка
Среднесрочные (1-3 месяца):
Интеграция ИИ для классификации
3D-визуализация
Долгосрочные (6+ месяцев):
Полный AI-ассистент для реверса
Генерация читов через NLP
Пример коммита для начала работ:
\+ function AI_Integration() {
\+ // Добавляем вызов Python ML-модели
\+ local result = ExecutePython("predict_type.py", memoryDump)
\+ }
Готов реализовать любое из этих улучшений в вашем форке. Какое направление наиболее приоритетно?
Основная:
CeWiki
Исчерпывающая:
Lua.txt (обновление 2023)
Форум:
cheatengine.org
Сайт:
cheatengine.org
Использовать CE можно разными способами. Самый простой - ничего не програмировать, а искать адреса в памяти процесса игры по правилам поиска, замораживать их значения. Посложнее - искать и использовать указатели на адреса памяти, чтобы после перезапуска уровня или игрового процесса таблица с адресами правильно работала. Посложнее будет правка дизассемблированного кода с помощью скриптов cheat engine, что даст гораздо больше управления над значениями адресов памяти, например, записать здоровье дружественным юнитам и даже создание предметов на карте или в инвентаре.
Работа с cheat engine это один из самых интересных способов познакомиться с программированием на асемблере через асемблерные вставки и через прогон отладочного кода в пошаговой отладке (или без прогона через брейкпонты). Также можно ознакомиться с програмированием на lua, программированием dll-ок на c++. На C++, reclass и IDA можно построить классы и управлять игровым поцесссом более гибко и масштабно. Также есть инструменты под определенные игровые движки, которые облегчают реализацию читов, например, поиск функций (отладочных, декомпилированных) для читов и их создания. Скорее всего, если поискать, то можно много новых инструментов найти в Интернете.
Также ознакомиться с программированием можно на уровнях игровых движков (unity, unreal engine, cry engine и других) через поиск в Интернете. Так можно получить представление о древовидной связи игровых обьектов сущностей и связи этих обьектов с обьектами классов-поведений. Часть классов-поведений(компоненты) являются частью игрового движка, а часть является особенностью определеной игры. Например, создание, удаление, копирование обьекта-сущности с его компонентами - это прерогатива функций игрового движка, на котором делают множество игр. А, например, управление игровой механикой это уже связь с конкретной игрой или даже конкретной версии игры. Когда, работаешь с игровым движком, то прекрасно понимаешь почему динамические указатели имеют место быть. И это и сцена, которая хранит дерево обьектов, это само дерево обьектов и это место в динамическом списке компонентов и сам компонент, который может работать с переменной локальной или же обращаться к обьектам других компонентов или классов не на основе компонентов.
Короче говоря, если планируешь изучать прогоаммирование, то ничего нет интересней начать с программирования читов и изучения архитектуры операционной системы (начиная с процессов, потоков, памяти и т.п.). Также изучая готовые примеры скриптов, кодов, исходников игр и трейнеров. Написание трейнеров и обхода защит от трейнеров, тоже очень поможет в изучении программирования.
После использования Obsidian более месяца понял, что пока не нашел лучше программы для ведения базы знаний.
При чем чем больше пользуешься тем вероятнее изменить стратегию ведения базы. Например, я отказался от множества vault в пользу трех: для работы на рабочем ПК, на смартфоне и на ноутбуке. Пока они все составляются не зная друг про друга. Большое их кол-во неудобная штука, т.к. переключаться между ними долго, искать в каждом отдельном так себе... Граф поможет искать все связи и ссылки. Возможно, что-то еще напишу по Obsidian. Думаю, что я изучил по Obsidian все, что мне нужно и по его основным плагинам, кроме написания сами плагинов (пока не потребовалось)
Привет. Эта тема опрос по Obsidian и альтернатив этой программы. Obsidian работает на множестве операционных систем для ведения огромного количества заметок, конспектов и прочего. Если не пробовали, то предлагаю попробовать, особенно, если заметок много и они разбросаны по разными местам. Также можно обсудить еще плагины и способы ведения заметок.
Категории
-
-
-
-
-
-
Программирование
Программирование и отладка
Метки:
В сети:
Скрипт сегодня №6
reinitializeSymbolhandler()
local md5Process = GetMd5Process(processid)
PrintMd5Process(process, md5Process)
local isSupportedVersion = CheckingMd5CurrentProcess(md5Process)
local lineResult = isSupportedVersion and 'Is supported version. Activating cheat...' or 'Is not supported version.'
if not isSupportedVersion then
speakEnglish(lineResult, false)
messageDialog('Error', lineResult, mtError, mbClose)
else
speakEnglish(lineResult, true)
-- Активация простого чита: поиск и заморозка адреса здоровья
autoAssemble([[
alloc(newmem,2048)
label(code)
label(return)
"Base.exe"+123456:
code:
mov [eax],(int)999
return:
jmp return
newmem:
jmp "Base.exe"+123456
nop
jmp return
]])
messageDialog('Success', 'Cheat activated for health: 999', mtInformation, mbOK)
end
end