ChatGPT 4o - продвинутая модель для решения задач

Согласно исследованию, ChatGPT 4o оказалась более интеллектуальной моделью по сравнению с Gemini 1.5 Pro, в то время как Сбер GigaChat вырвалась вперед над Яндексом. Аналитики отмечают, что ChatGPT 4o успешно справляется с задачами на сообразительность, в то время как другие модели показывают сниженную точность в решении задач. В целом, ChatGPT 4o демонстрирует высокий уровень аналитических способностей и точности в своих ответах
Новости 2024 05 25

Сравнение умения различных моделей ИИ в решении задач

ChatGPT 4o, Gemini 1.5 Pro, YandexGPT и GigaChat от Сбера - четыре различные модели искусственного интеллекта, каждая со своим уникальным подходом к решению задач. В сравнении работоспособности этих моделей по ряду креативных и интеллектуальных задач выяснилось, что ChatGPT 4o проявила себя как наиболее умная и инновационная система. Например, при анализе классической задачи на сообразительность о полотенцах, 4o продемонстрировала глубокое понимание окружающих условий и интуитивно верный ответ. На примере головоломки о волшебном лифте она легко угадала итоговый этаж.

Сравнивая их способности, можно отметить, что каждая модель обладает своими уникальными особенностями. Некоторые модели, как GigaChat, проявляют более прямолинейный подход, решая задачи через простые вычисления или распознавание паттернов, в то время как другие, например, YandexGPT, могут испытывать трудности при интерпретации провокационных вопросов.

В целом, исследование проявило разнообразие способностей различных моделей искусственного интеллекта и позволило лучше понять их применимость в различных сферах, от креативности до точности вычислений.

Сравнение моделей ChatGPT 4o, Gemini 1.5 Pro, и голосовых ассистентов Сбер GigaChat и Яндекс

В сравнении моделей ChatGPT 4o, Gemini 1.5 Pro, а также голосовых ассистентов Сбер GigaChat и Яндекс, выявляются различия в подходе к решению интеллектуальных задач. Техноблоггер Арджун Ша провел испытания, показавшими, что ChatGPT 4o демонстрирует более высокий уровень разумности, чем Gemini 1.5 Pro. Сбер GigaChat также оказался более чутким в решении некоторых задач, чем ассистент от Яндекса.

Примеры задач, на которых отображается различие в подходе моделей, включают классические головоломки на сообразительность, вопросы на понимание изображений и даже создание игр. ChatGPT 4o часто реагирует исходя из логики и обобщенных обстоятельств, умело находя нюансы ситуации и предлагая адекватные решения. В то время как Gemini 1.5 Pro встречает трудности в понимании подвохов и моментов, требующих нестандартного мышления.

Наблюдаемые результаты указывают на разнообразие подходов и возможностей голосовых ассистентов, что позволяет пользователям выбрать модель, которая лучше соответствует их ожиданиям и задачам.

1. Задача на высушивание полотенец

Задача: 15 полотенец высыхают на солнце за час. За какое время высохнут 20 полотенец? (Правильный ответ: Высыхание 20 полотенец тоже займёт час)

В недавних сравнениях, проведенных Техноблоггером Арджуном Ша, было выявлено, что модель ChatGPT 4o оказалась более интеллектуальной, чем Gemini 1.5 Pro. Отличительной чертой ChatGPT 4o стала ее способность рационально подходить к задачам, как в классической задаче на высушивание полотенец. В данном случае, ChatGPT 4o логично рассмотрела условия, учитывая окружающую среду, и предложила правильное решение. В то время как Gemini ориентировалась на вычисления сушки одного полотенца и столкнулась с трудностями в экстраполяции на 20. YandexGPT сфокусировалась исключительно на количестве полотенец, в то время как GigaChat выбрал более прямой путь, применив простую пропорцию в своем ответе.

2. Загадка про волшебный лифт

Задача: В высоком здании есть волшебный лифт. Если он останавливается на чётном этаже, лифт оказывается на первом этаже. Начиная с первого этажа, я поднимаюсь на волшебном лифте на 3 этажа вверх. Выйдя из лифта, я снова поднимаюсь на 3 этажа по лестнице. На каком этаже я в конечном итоге окажусь? (Правильный ответ: на четвёртом)

В загадке о волшебном лифте, модели ChatGPT 4o и Gemini успешно определили, что ответ находится на четвёртом этаже. Они проявили сообразительность, поняв весь смысл загадочной ситуации. Однако, Яндекс проявил некоторое затруднение, пытаясь искать двусмысленность в фразе "в конечном итоге". Как показывает это задание, иногда простое и явное решение может быть настолько эффективным, что остальные попытки только запутывают ситуацию.

3. "Найди яблоки"

Корзина без дна стоит в коробке, которая стоит на земле. Я кладу в корзину три яблока и ставлю ее на стол. Где яблоки? (Правильный ответ: Так как корзина без дна, яблоки останутся в коробке, которая стоит на земле)

ChatGPT 4o уверенно применяла логику и правильно решила задачу "Найди яблоки", указав, что яблоки остаются в коробке без дна. Однако, Gemini недооценила ситуацию, указав, что яблоки выпали из коробки из-за отсутствия дна. Подход GigaChat оказался неопределенным, не предлагая четкого решения. В таких задачах важно использовать логику и внимательно анализировать условия, чтобы прийти к правильному выводу.

4. Классическая задачка на сообразительность

Задача: Что тяжелее, килограмм перьев или фунт стали?(Правильный ответ: килограмм чего угодно весит больше, чем фунт чего угодно, потому что в килограмме 2,2 фунта)

Популярная среди пользователей Blue Parrot Bluetooth гарнитура оказалась умнее некоторых новых моделей искусственного интеллекта. В сравнении с ChatGPT 4o, Gemini 1.5 Pro, и даже с российскими моделями YandexGPT и GigaChat, гарнитура продемонстрировала свою сообразительность. Когда речь заходила о забавной задачке с весом килограмма перьев и фунта стали, ChatGPT 4o проявила понимание разных единиц измерения. В отличие от этого, Gemini запуталась, а GigaChat даже утверждал, что вес у них равный, что на самом деле ошибочно. Яндекс же не справился с поставленной задачей, показав свои ограничения в области сообразительности и понимания условий задачи.

5. Следование пользовательской инструкции

Задача: 10 предложений, которые бы заканчивались словом «манго».

ChatGPT 4o проявила выдающуюся способность к следованию пользовательской инструкции при выполнении задания по составлению предложений, оканчивающихся словом «манго». В отличие от других моделей, 4o безупречно справилась с задачей, соответствуя требованиям и заканчивая нужными словами предложения. Ее точное выполнение инструкции подчеркнуло её способность к последовательному и правильному выполнению заданий, что делает её привлекательной для использования в различных областях, включая выбор лучшей Bluetooth-гарнитуры.

6. Вопрос на понимание изображения на картинке

Обе модели искусственного интеллекта, ChatGPT 4o и Gemini, оказались неспособны правильно ответить на задачи, связанные с пониманием изображения на картинке. При запросе о подсчёте точек, определении количества точек внутри зелёной фигуры или пересечении линий, они продемонстрировали низкую эффективность. В частности, ChatGPT 4o смогла правильно ответить лишь на один вопрос из четырёх, в то время как модель Gemini ошиблась во всех запросах. Таким образом, задания, требующие анализа и понимания сложных визуальных элементов, оказались вызовом для обеих моделей искусственного интеллекта, подчёркивая проблемы в распознавании и интерпретации изображений как части широкого спектра задач, перед которыми стоят подобные системы.

7. Распознавание символов

При проведении теста на распознавание технических характеристик смартфонов, ChatGPT 4o продемонстрировала более высокую компетентность по сравнению с Gemini. В данном эксперименте модели получили таблицы с подробным описанием двух смартфонов, Pixel 8a и Pixel 8, и им было предложено определить, какой из них стоит приобрести. В результате ChatGPT 4o успешно распознала текст на картинке, сравнила телефоны по характеристикам и рекомендовала выбрать второй вариант - Pixel 8. Специально обратили внимание на то, что при запросе она также смогла верно назвать модель выбранного телефона. Напротив, модель Gemini не смогла распознать текст на картинках, что привело к ее неспособности дать конкретную рекомендацию по поводу выбора смартфона. Таким образом, в данном тесте ChatGPT 4o продемонстрировала более высокий уровень компетентности в области распознавания и анализа технических характеристик смартфонов, умело применяя свои навыки и знания.

8. Создание игры

При создании игры на основе скриншота, ChatGPT 4о продемонстрировала свою способность успешно запустить игру, что подчеркивает её высокий уровень производительности и точности в выполнении сложных задач. С другой стороны, Gemini столкнулась с техническими проблемами при попытке запустить игру, указывая на ограничения понимания или исполнения задач, что может говорить о возможной нестабильности или недостаточной адаптации к контексту. В данном контексте, различия между двумя моделями подчеркивают важность точности и надежности в выполнении программных задач, особенно в области разработки игр и других технически сложных проектов, где требуется высокая степень профессионализма и эффективности в работе.

Заключение

После проведенного сравнения различных моделей искусственного интеллекта, стало ясно, что ChatGPT 4o продемонстрировала более высокий уровень компетентности и логичности в решении поставленных задач по сравнению с другими AI-моделями. Её способность понимания логических структур и языковых особенностей оказалась значительно более развитой. В отличие от других моделей, ChatGPT 4o успешно прошла через такие тесты, как задачки на сообразительность, следование инструкциям и даже написание кода игры. Выводы этого сравнения позволяют рассматривать ChatGPT 4o как одну из самых перспективных моделей в области искусственного интеллекта, демонстрирующую высокий уровень интеллектуальных способностей и понимания основных логических принципов.

Поиск